(所有这些都是在Ubuntu 10.04,FWIW上使用PostgreSQL 9.0.1完成的。)
我已经尝试为PostgreSQL专门为名字编写自己的lexize函数,基于双元音译算法。为了产生C lexize函数,我从dict_xsyn示例开始,基本上交换双metaphone进行同义词查找。
但是可能有20%的时间to_tsvector
被调用,它似乎正在减少词汇量。例如,我创建了一个包含US Census Bureau's list of names的表。
db=# select * from names order by rank limit 8;
name | freq | cumfreq | rank
----------+-------+---------+------
SMITH | 1.006 | 1.006 | 1
JOHNSON | 0.81 | 1.816 | 2
WILLIAMS | 0.699 | 2.515 | 3
JONES | 0.621 | 3.136 | 4
BROWN | 0.621 | 3.757 | 5
DAVIS | 0.48 | 4.237 | 6
MILLER | 0.424 | 4.66 | 7
WILSON | 0.339 | 5 | 8
(8 rows)
然后我们可以添加一个矢量列,并使用我的metaphone词典的to_tsvector
填充它:
db=# alter table names add column vec tsvector;
ALTER TABLE
db=# update names set vec=to_tsvector('public.names', name);
UPDATE 88799
db=# select * from names order by rank limit 8;
name | freq | cumfreq | rank | vec
----------+-------+---------+------+-------------------------------
SMITH | 1.006 | 1.006 | 1 |
JOHNSON | 0.81 | 1.816 | 2 | 'ANSN':1 'JNSN':1 'johnson':1
WILLIAMS | 0.699 | 2.515 | 3 |
JONES | 0.621 | 3.136 | 4 |
BROWN | 0.621 | 3.757 | 5 |
DAVIS | 0.48 | 4.237 | 6 |
MILLER | 0.424 | 4.66 | 7 | 'MLR':1 'miller':1
WILSON | 0.339 | 5 | 8 | 'ALSN':1 'FLSN':1 'wilson':1
(8 rows)
一堆vec字段只是空的!事实上:
db=# select count(1) from names where vec = to_tsvector('');
count
-------
41101
(1 row)
我可以进行批量更新,然后重复计算不匹配的字段,每次都得到不同的计数,因为不同的行无法计算实数向量。
但我觉得我的lexize功能本身还可以吗?
db=# alter table names drop column vec; alter table names add column lexemes varchar[];
ALTER TABLE
ALTER TABLE
db=# update names set lexemes=ts_lexize('dmetaphonedict', name);
UPDATE 88799
db=# select * from names order by rank limit 10;
name | freq | cumfreq | rank | lexemes
----------+-------+---------+------+----------------------
SMITH | 1.006 | 1.006 | 1 | {smith,SM0,XMT}
JOHNSON | 0.81 | 1.816 | 2 | {johnson,JNSN,ANSN}
WILLIAMS | 0.699 | 2.515 | 3 | {williams,ALMS,FLMS}
JONES | 0.621 | 3.136 | 4 | {jones,JNS,ANS}
BROWN | 0.621 | 3.757 | 5 | {brown,PRN}
DAVIS | 0.48 | 4.237 | 6 | {davis,TFS}
MILLER | 0.424 | 4.66 | 7 | {miller,MLR}
WILSON | 0.339 | 5 | 8 | {wilson,ALSN,FLSN}
MOORE | 0.312 | 5.312 | 9 | {moore,MR}
TAYLOR | 0.311 | 5.623 | 10 | {taylor,TLR}
(10 rows)
db=# select count(1) from names where array_length(lexemes,1)=0;
count
-------
0
(1 row)
我可以一遍又一遍地做到这一点,每次都会出现0次不匹配。
我正在创建相关的文本搜索词典和配置:
CREATE OR REPLACE FUNCTION ddmetaphonedict_init(internal)
RETURNS internal
AS '$libdir/dict_dmetaphone'
LANGUAGE C STRICT;
CREATE OR REPLACE FUNCTION ddmetaphonedict_lexize(internal, internal, internal, internal)
RETURNS internal
AS '$libdir/dict_dmetaphone'
LANGUAGE C STRICT;
CREATE TEXT SEARCH TEMPLATE dmetaphonedict_template (
LEXIZE = ddmetaphonedict_lexize,
INIT = ddmetaphonedict_init
);
CREATE TEXT SEARCH DICTIONARY dmetaphonedict (
TEMPLATE = dmetaphonedict_template
);
COMMENT ON TEXT SEARCH DICTIONARY dmetaphonedict IS 'dictionary for names, using dmetaphone';
create text search configuration names (copy=english);
alter text search configuration names alter mapping for asciiword, asciihword, word, hword with dmetaphonedict;
非常直接来自dict_xsyn示例。
发生了什么事?我该怎么做才能找出这些东西被丢弃的地方?
已添加:仅使用9.1尝试此操作。 to_tsvector产生dud tsvector的速率大大降低(5(仅5,而不是5k)到80000+中的7000条记录)。但它们仍在那里。
答案 0 :(得分:1)
我想首先消除to_tsvector()作为原因。
我可能会先尝试更改to_tsvector(),以便返回一个常量。例如,将其更改为返回“'ANSN':1'JNSN':1'johnson':1”,无论其输入参数是什么。 (即使输入参数为NULL。)如果批量更新仍然在“vec”列中留下漏洞,我认为这将清除to_tsvector()。
我是对的吗?
还要考虑一个两步过程,使用lexize()填充列“lexemes”,然后使用另一个函数来读取lexemes并在“vec”列中生成值。