在elasticsearch中使用大型max_gram对nGram tokenizer有什么副作用?

时间:2013-05-08 21:33:26

标签: elasticsearch

我想了解在使用nGram tokenizer时使用max_gram的大设置的含义。我知道它会爆炸索引的大小,但那么呢?它会使搜索速度变慢吗?它会导致错误吗?等

1 个答案:

答案 0 :(得分:1)

它会使搜索速度变慢,因为会生成大量令牌用于比较。

一般情况下,您应该分析您的业务并找出适合您所在领域的ngram大小。 例如:对于产品ID,您可以支持搜索ngram最多20个字符(max_gram = 20),因为通常人们只记住产品ID的5或6个字符,20个就足够了。