我正在5.6.12版上运行2节点集群
我遵循了以下滚动升级指南:https://www.elastic.co/guide/en/elasticsearch/reference/5.6/rolling-upgrades.html
将最后一个升级的节点重新连接回我的群集后,由于未分配的分片,运行状况状态保持为黄色。
重新启用分片分配似乎无效:
PUT _cluster/settings
{
"transient": {
"cluster.routing.allocation.enable": "all"
}
}
检查集群运行状况时我的查询结果:
GET _cat/health:
1541522454 16:40:54 elastic-upgrade-test yellow 2 2 84 84 0 0 84 0 - 50.0%
GET _cat/shards:
v2_session-prod-2018.11.05 3 p STARTED 6000 1016kb xx.xxx.xx.xxx node-25
v2_session-prod-2018.11.05 3 r UNASSIGNED
v2_session-prod-2018.11.05 1 p STARTED 6000 963.3kb xx.xxx.xx.xxx node-25
v2_session-prod-2018.11.05 1 r UNASSIGNED
v2_session-prod-2018.11.05 4 p STARTED 6000 1020.4kb xx.xxx.xx.xxx node-25
v2_session-prod-2018.11.05 4 r UNASSIGNED
v2_session-prod-2018.11.05 2 p STARTED 6000 951.4kb xx.xxx.xx.xxx node-25
v2_session-prod-2018.11.05 2 r UNASSIGNED
v2_session-prod-2018.11.05 0 p STARTED 6000 972.2kb xx.xxx.xx.xxx node-25
v2_session-prod-2018.11.05 0 r UNASSIGNED
v2_status-prod-2018.11.05 3 p STARTED 6000 910.2kb xx.xxx.xx.xxx node-25
v2_status-prod-2018.11.05 3 r UNASSIGNED
还有另一种方法来尝试重新分配分片,以便使群集运行状况恢复绿色吗?
答案 0 :(得分:0)
群集中的另一个节点发出了“超出磁盘高水位标记[90%]”警告消息,因此碎片“已从该节点移开”。
我将配置更新为:
cluster.routing.allocation.disk.watermark.high: 95%
重新启动节点后,分片再次开始分配。
这是一个快速修复-我还将尝试增加此节点上的磁盘空间,以确保我不会失去可靠性。