Elasticsearch 1.5.2共享分配卡住了

时间:2016-05-02 09:07:40

标签: elasticsearch

我有一个具有以下规格的集群(es v 1.5.2):

  • 3个带RAM的节点:32GB,CPU核心:每个8个
  • 63个总指数= 32个奇迹+ 1个kibana + 30个数据
  • 366总碎片=(32奇迹+ 1 kibana + 150数据)* 1副本
  • 959,231,444总文档
  • 588.38GB总数据
  • ES_HEAP_SIZE =16克

我已成功删除了大约200个空索引并重新启动了群集 - 通常分配需要1小时才能完成,但现在已超过12小时,但仍有183个未分配的共享。

另外,我可以看到node1只分配了6个分片 - 大多数数据分片在node2和node3之间分开。我试图重新启动node1仍然有相同的情况。为什么不采取更多的分片?

可能是什么问题,如何让分配更快完成?

1 个答案:

答案 0 :(得分:1)

好的,我找到了一个解决方案 - 我只是update indices settings通过将所有索引的副本数设置为0,然后群集运行状况变为绿色,最后通过设置的数量再次更新设置所有指数的复制品都回到了1。

群集开始正常分配分片(也是node1)。