我正在使用TO_TSVECTOR
根据长格式用户条目生成文字云。它通常运行良好,返回单词的实例数。然而,我注意到一些奇怪的结果。我怀疑我可能不理解lexemes如何从TO_TSVECTOR
返回。这是我的样本集:
"this is just another response"
"and yet again I am typing this because I think it will work"
"why is someone so loud moaning in this song?"
"oh hi mark"
"oh hi mark"
"the time has come, to make this thing work"
"white light, song lyrics are fun to play with"
"this is a test another test why wont you work?"
"what a morbid response"
我得到的结果与我通常预期的方式相同,但another
和response
这些字词的返回时间为anoth
和respons
。所以基本上它会截断结果?
如果我在TO_TSVECTOR
设置中使用simple
,我会得到我想要的结果,但是the
和it
这样的额外字词不会被滤除(这是我想要的是什么。
如上所述,怀疑我误解了词汇的返回方式。