我想进行搜索以实现以下项目。
现在我已经通过正则表达式实现了所有这一切,它远远没有涵盖所有内容,我想知道我可以使用ElasticSearch做多少:
同义词
我的理解是,这是在创建索引时实现的。
indexSettings.Analysis.TokenFilters.Add(“synonym”,new SynonymTokenFilter {Synonyms = new [] {“tire => tire”,“aluminum => aluminium”},IgnoreCase = true,Tokenizer =“whitespace” });
但是我还需要包含复数吗?或者,
单数词(鞋子和鞋子应该是完全匹配的)
这是否意味着我需要将“鞋子”放在同义词列表中?还是有另一种方式?
应允许小的拼写错误,替换和遗漏
以便'汽车','汽车'或'汽车'匹配。我不知道这是否可能。
忽略所有停用词
现在我通过正则表达式删除所有'the','this','my'等等
我所有的搜索字词都是简单的英文单词和数字;没有别的东西是允许的。
答案 0 :(得分:5)
所有这一切都可以通过Elasticsearch中的 configuring/writing a custom analyzer 实现。要依次回答每个问题:
同义词
同义词可以在索引时间,搜索时间或两者中应用。无论您选择何种方法,都需要权衡利弊
还需要考虑同义词列表的大小以及它的变化频率(如果有的话)。我会考虑尝试两者并决定哪种方案最适合您的场景和要求。
奇异的单词(鞋子和鞋子应该是完全匹配的)
您可以考虑使用stemming使用基于算法或字典的词干分析器将复数和单数词减少为其根形式。也许从English Snowball stemmer开始,看看它是如何为你工作的。
您还应该考虑是否还需要索引原始单词格式,例如应该确切的单词匹配排名高于其根表单上的词干吗?
应允许小的拼写错误,替换和遗漏
考虑使用可以利用fuzziness来处理拼写错误和拼写错误的查询。如果索引数据中存在拼写错误,请在编制索引之前考虑某种形式的清理。根据所有数据存储,Garbage In,Garbage Out:)
忽略所有停用词
使用English Stop token filter删除停用词。
将所有这些放在一起,示例分析器可能看起来像
void Main()
{
var pool = new SingleNodeConnectionPool(new Uri("http://localhost:9200"));
var defaultIndex = "default-index";
var connectionSettings = new ConnectionSettings(pool)
.DefaultIndex(defaultIndex);
var client = new ElasticClient(connectionSettings);
if (client.IndexExists(defaultIndex).Exists)
client.DeleteIndex(defaultIndex);
client.CreateIndex(defaultIndex, c => c
.Settings(s => s
.Analysis(a => a
.TokenFilters(t => t
.Stop("my_stop", st => st
.StopWords("_english_", "i've")
.RemoveTrailing()
)
.Synonym("my_synonym", st => st
.Synonyms(
"dap, sneaker, pump, trainer",
"soccer => football"
)
)
.Snowball("my_snowball", st => st
.Language(SnowballLanguage.English)
)
)
.Analyzers(an => an
.Custom("my_analyzer", ca => ca
.Tokenizer("standard")
.Filters(
"lowercase",
"my_stop",
"my_snowball",
"my_synonym"
)
)
)
)
)
.Mappings(m => m
.Map<Message>(mm => mm
.Properties(p => p
.Text(t => t
.Name(n => n.Content)
.Analyzer("my_analyzer")
)
)
)
)
);
client.Analyze(a => a
.Index(defaultIndex)
.Field<Message>(f => f.Content)
.Text("Loving those Billy! Them is the maddest soccer trainers I've ever seen!")
);
}
public class Message
{
public string Content { get; set; }
}
my_analyzer
为上面的
{
"tokens" : [
{
"token" : "love",
"start_offset" : 0,
"end_offset" : 6,
"type" : "<ALPHANUM>",
"position" : 0
},
{
"token" : "those",
"start_offset" : 7,
"end_offset" : 12,
"type" : "<ALPHANUM>",
"position" : 1
},
{
"token" : "billi",
"start_offset" : 13,
"end_offset" : 18,
"type" : "<ALPHANUM>",
"position" : 2
},
{
"token" : "them",
"start_offset" : 20,
"end_offset" : 24,
"type" : "<ALPHANUM>",
"position" : 3
},
{
"token" : "maddest",
"start_offset" : 32,
"end_offset" : 39,
"type" : "<ALPHANUM>",
"position" : 6
},
{
"token" : "football",
"start_offset" : 40,
"end_offset" : 46,
"type" : "SYNONYM",
"position" : 7
},
{
"token" : "trainer",
"start_offset" : 47,
"end_offset" : 55,
"type" : "<ALPHANUM>",
"position" : 8
},
{
"token" : "dap",
"start_offset" : 47,
"end_offset" : 55,
"type" : "SYNONYM",
"position" : 8
},
{
"token" : "sneaker",
"start_offset" : 47,
"end_offset" : 55,
"type" : "SYNONYM",
"position" : 8
},
{
"token" : "pump",
"start_offset" : 47,
"end_offset" : 55,
"type" : "SYNONYM",
"position" : 8
},
{
"token" : "ever",
"start_offset" : 61,
"end_offset" : 65,
"type" : "<ALPHANUM>",
"position" : 10
},
{
"token" : "seen",
"start_offset" : 66,
"end_offset" : 70,
"type" : "<ALPHANUM>",
"position" : 11
}
]
}