我假设Elasticsearch中的每个分片都是索引。但我在某处读到每个段都是Lucene索引。
细分市场究竟是什么?它如何影响搜索性能?我的索引每天大小达到450GB(我每天都会创建一个新的),默认的Elasticsearch设置。
当我执行curl -XPOST "http://localhost:9200/logstash-2013.03.0$i_optimize?max_num_segments=1"
时,我明白了
num_committed_segments=11
和num_search_segments=11
。
上述值不应为1吗?也许是因为index.merge.policy.segments_per_tier
价值?无论如何,这个等级是什么?
答案 0 :(得分:141)
“索引”这个词在Elasticsearch中被滥用了一些 - 适用于太多的东西。
解释:
Elasticsearch中的“索引”有点像关系数据库中的数据库。它是存储/索引数据的地方。但实际上,这正是您的应用程序所看到的。在内部,索引是指向一个或多个分片的逻辑命名空间。
此外,“索引”表示将您的数据“放入”Elasticsearch。您的数据既可以存储(用于检索),也可以“索引”用于搜索。
“倒排索引”是Lucene用于使数据可搜索的数据结构。它处理数据,提取唯一的术语或令牌,然后记录哪些文档包含这些令牌。有关详情,请参阅http://en.wikipedia.org/wiki/Inverted_index。
“碎片”是Lucene的一个实例。它本身就是一个功能齐全的搜索引擎。 “索引”可以由单个分片组成,但通常由多个分片组成,以允许索引增长并在多台机器上分割。
“主要分片”是文档的主要主页。 “副本分片”是主分片的副本,它提供(1)主要故障时的故障转移和(2)增加的读取吞吐量
每个分片包含多个“分段”,其中分段是反向索引。在分片中搜索将依次搜索每个片段,然后将其结果合并到该分片的最终结果中。
在索引文档时,Elasticsearch会在内存中收集它们(在事务日志中,为了安全起见),然后每隔一秒钟,将一个新的小段写入磁盘,并“刷新”搜索。
这使得新段中的数据可供搜索(即它们是“可搜索的”),但该段尚未与磁盘进行fsync,因此仍然存在数据丢失的风险。
每隔一段时间,Elasticsearch将“刷新”,这意味着fsync'ing段,(它们现在“已提交”)并清除事务日志,这已不再需要,因为我们知道新数据已经写入磁盘。
分段越多,每次搜索所需的时间越长。因此,Elasticsearch将通过后台合并过程将大量相似大小的片段(“层”)合并为一个更大的片段。写入新的较大段后,旧段将被删除。当存在太多相同大小的段时,会对较大的段重复此过程。
细分是不可变的。更新文档时,它实际上只是将旧文档标记为已删除,并为新文档编制索引。合并过程还会删除这些旧的已删除文档。