我们正在运行一个具有“零”副本的7节点群集,如下所示:
{
"cluster_name": "my_cluster",
"status": "green",
"timed_out": false,
"number_of_nodes": 7,
"number_of_data_nodes": 7,
"active_primary_shards": 3325,
"active_shards": 3325,
"relocating_shards": 0,
"initializing_shards": 0,
"unassigned_shards": 0,
"delayed_unassigned_shards": 0,
"number_of_pending_tasks": 0,
"number_of_in_flight_fetch": 0,
"task_max_waiting_in_queue_millis": 0,
"active_shards_percent_as_number": 100.0
}
elasticsearch群集状态从“绿色”间歇性地变为“黄色”。我注意到的另一件有趣的事情是,在此间歇性群集状态更改期间,发生了分片初始化,这与群集状态更改相关。这是由于群集运行“零”副本吗? 什么可能导致上述行为?
答案 0 :(得分:0)
1。使用
查找该索引http://IP_MASTER:9200/_cat/indices?v
2。查找具有该索引分片的节点,将进行分配和未分配。
http://IP_MASTER:9200/_cat/shards?v
A。 lucene检查索引(只需检查该碎片)
java -cp lucene-core*.jar -ea:org.apache.lucene… org.apache.lucene.index.CheckIndex /mnt/nas/elasticsearch/graylog-production/nodes/0/indices/graylog_92/0/index/ -verbose -exorcise
如果提示找不到该段,请尝试在该路径上找到并cd并运行命令。
B。 elasticsearch修复索引(它检查所有索引并且非常慢)
index.shard.check_on_startup: fix
您应该在该节点的elasticsearch.yml上设置此配置。