ElasticSearch / Nest搜索包含同义词,复数和拼写错误

时间:2017-06-08 19:06:11

标签: elasticsearch nest

我想进行搜索以实现以下项目。

现在我已经通过正则表达式实现了所有这一切,它远远没有涵盖所有内容,我想知道我可以使用ElasticSearch做多少:

  • 同义词

    我的理解是,这是在创建索引时实现的。

    indexSettings.Analysis.TokenFilters.Add(“synonym”,new SynonymTokenFilter {Synonyms = new [] {“tire => tire”,“aluminum => aluminium”},IgnoreCase = true,Tokenizer =“whitespace” });

    但是我还需要包含复数吗?或者,

  • 单数词(鞋子和鞋子应该是完全匹配的)

    这是否意味着我需要将“鞋子”放在同义词列表中?还是有另一种方式?

  • 应允许小的拼写错误,替换和遗漏

    以便'汽车','汽车'或'汽车'匹配。我不知道这是否可能。

  • 忽略所有停用词

    现在我通过正则表达式删除所有'the','this','my'等等

我所有的搜索字词都是简单的英文单词和数字;没有别的东西是允许的。

1 个答案:

答案 0 :(得分:5)

所有这一切都可以通过Elasticsearch中的 configuring/writing a custom analyzer 实现。要依次回答每个问题:

  

同义词

同义词可以在索引时间,搜索时间或两者中应用。无论您选择何种方法,都需要权衡利弊

  • 与在搜索时应用相比,在索引时应用同义词会导致更快的搜索,代价是更多磁盘空间,索引吞吐量以及添加/删除现有同义词的简便性和灵活性
  • 在搜索时应用同义词可以牺牲搜索速度来提高灵活性。

还需要考虑同义词列表的大小以及它的变化频率(如果有的话)。我会考虑尝试两者并决定哪种方案最适合您的场景和要求。

  

奇异的单词(鞋子和鞋子应该是完全匹配的)

您可以考虑使用stemming使用基于算法或字典的词干分析器将复数和单数词减少为其根形式。也许从English Snowball stemmer开始,看看它是如何为你工作的。

您还应该考虑是否还需要索引原始单词格式,例如应该确切的单词匹配排名高于其根表单上的词干吗?

  

应允许小的拼写错误,替换和遗漏

考虑使用可以利用fuzziness来处理拼写错误和拼写错误的查询。如果索引数据中存在拼写错误,请在编制索引之前考虑某种形式的清理。根据所有数据存储,Garbage In,Garbage Out:)

  

忽略所有停用词

使用English Stop token filter删除停用词。

将所有这些放在一起,示例分析器可能看起来像

void Main()
{
    var pool = new SingleNodeConnectionPool(new Uri("http://localhost:9200"));
    var defaultIndex = "default-index";
    var connectionSettings = new ConnectionSettings(pool)
        .DefaultIndex(defaultIndex);

    var client = new ElasticClient(connectionSettings);

    if (client.IndexExists(defaultIndex).Exists)
        client.DeleteIndex(defaultIndex);

    client.CreateIndex(defaultIndex, c => c
        .Settings(s => s
            .Analysis(a => a
                .TokenFilters(t => t
                    .Stop("my_stop", st => st
                        .StopWords("_english_", "i've")
                        .RemoveTrailing()
                    )
                    .Synonym("my_synonym", st => st
                        .Synonyms(
                            "dap, sneaker, pump, trainer",
                            "soccer => football"
                        )
                    )
                    .Snowball("my_snowball", st => st
                        .Language(SnowballLanguage.English)
                    )
                )
                .Analyzers(an => an
                    .Custom("my_analyzer", ca => ca
                        .Tokenizer("standard")
                        .Filters(
                            "lowercase",
                            "my_stop",
                            "my_snowball",
                            "my_synonym"
                        )
                    )
                )
            )
        )
        .Mappings(m => m
            .Map<Message>(mm => mm
                .Properties(p => p
                    .Text(t => t
                        .Name(n => n.Content)
                        .Analyzer("my_analyzer")
                    )
                )
            )
        )
    );

    client.Analyze(a => a
        .Index(defaultIndex)
        .Field<Message>(f => f.Content)
        .Text("Loving those Billy! Them is the maddest soccer trainers I've ever seen!")
    );
}

public class Message
{
    public string Content { get; set; }
}

my_analyzer为上面的

生成以下令牌
{
  "tokens" : [
    {
      "token" : "love",
      "start_offset" : 0,
      "end_offset" : 6,
      "type" : "<ALPHANUM>",
      "position" : 0
    },
    {
      "token" : "those",
      "start_offset" : 7,
      "end_offset" : 12,
      "type" : "<ALPHANUM>",
      "position" : 1
    },
    {
      "token" : "billi",
      "start_offset" : 13,
      "end_offset" : 18,
      "type" : "<ALPHANUM>",
      "position" : 2
    },
    {
      "token" : "them",
      "start_offset" : 20,
      "end_offset" : 24,
      "type" : "<ALPHANUM>",
      "position" : 3
    },
    {
      "token" : "maddest",
      "start_offset" : 32,
      "end_offset" : 39,
      "type" : "<ALPHANUM>",
      "position" : 6
    },
    {
      "token" : "football",
      "start_offset" : 40,
      "end_offset" : 46,
      "type" : "SYNONYM",
      "position" : 7
    },
    {
      "token" : "trainer",
      "start_offset" : 47,
      "end_offset" : 55,
      "type" : "<ALPHANUM>",
      "position" : 8
    },
    {
      "token" : "dap",
      "start_offset" : 47,
      "end_offset" : 55,
      "type" : "SYNONYM",
      "position" : 8
    },
    {
      "token" : "sneaker",
      "start_offset" : 47,
      "end_offset" : 55,
      "type" : "SYNONYM",
      "position" : 8
    },
    {
      "token" : "pump",
      "start_offset" : 47,
      "end_offset" : 55,
      "type" : "SYNONYM",
      "position" : 8
    },
    {
      "token" : "ever",
      "start_offset" : 61,
      "end_offset" : 65,
      "type" : "<ALPHANUM>",
      "position" : 10
    },
    {
      "token" : "seen",
      "start_offset" : 66,
      "end_offset" : 70,
      "type" : "<ALPHANUM>",
      "position" : 11
    }
  ]
}