我几个月前推出了一个ElasticSearch实例,但我高估了平均碎片的大小。我的碎片相当小,现在最大400mb。我发现推荐的尺寸应该是大约。 50gb(基于stackoverflow搜索)。我也没有最大的碎片计数,我不得不重新配置它。但正确的方法是改变分片的逻辑并基本上使分片更大。在我的情况下它是完全可行的,但问题是如何处理已经存在的分片。我当然可以重播数据,但需要很多时间。那么有更好的方法将较小的分片合并为大分片吗?
答案 0 :(得分:2)
据我所知,您无法动态合并分片。这曾经是您必须重新索引数据的情况之一。
Elasticsearch现在提供了一种让这种情况不那么痛苦的方法。 Shrink API允许您创建一个新索引,其主分片数是源索引主分片数的一个因子。例如,如果索引有12个分片,则缩小索引可以有6个,4个,2个,1个主分片。
我希望它有所帮助!