具有以下群集:
我们存储时间序列。我们有〜100个别名(每个别名对应一种特定类型的文档),在该别名下有〜2500个索引。索引是对应于一周数据的时间分区。因此,_cat/aliases
给出如下信息:
alias index
foo foo_201844
foo foo_201845
bar bar_201844
bar bar_201845
随着时间的流逝,将添加新的分区以及新的别名。每个星期的索引大小和另一个别名的索引大小可能相差很大。这种基于时间的分区是出于以下三个原因:
我们发现索引创建时间增加了很多,有时甚至超时(设置为30秒)。
我可以增加超时时间,但是感觉很拖延。 Elasticsearch旨在处理那么多索引吗?我应该更改此分区策略吗?仅仅是资源问题吗?