Elasticsearch不接受数据

时间:2018-09-26 10:50:50

标签: elasticsearch logstash

我在kubernetes上有一个Elasticsearch集群setup。最近,logstash无法将任何数据推入群集,因为群集中的一个节点磁盘空间不足。

这是logstash中的错误

 [Ruby-0-Thread-13@[main]>worker1: /usr/share/logstash/logstash-core/lib/logstash/pipeline.rb:383] elasticsearch - retrying failed action with response code: 403 ({"type"=>"cluster_block_exception", "reason"=>"blocked by: [FORBIDDEN/12/index read-only / allow delete (api)];"}) 

es-master将节点标记为只读,因为可用磁盘空间超过阈值

[WARN ][o.e.c.r.a.DiskThresholdMonitor] [es-master-65ccf55794-pm4xz] flood stage disk watermark [95%] exceeded on [SaRCGuyyTBOxTjNtvjui-g][es-data-1][/data/data/nodes/0] free: 9.1gb[2%], all indices on this node will be marked read-only

在此之后,我释放了该节点上的资源,现在它具有足够的可用空间(几乎50%)。但是logstash仍然无法将数据推送到弹性搜索中,并且正在记录上面的相同错误。

我有以下问题

  1. elasticsearch会自动从中恢复吗?
  2. 如果没有,我应该重新启动集群吗?如果我仅重新启动数据节点,还是应该重新启动主节点和目标节点,就足够了吗?
  3. 有什么方法可以将索引重新标记为可写而无需重新启动?

1 个答案:

答案 0 :(得分:3)

您必须手动重置索引上的只读块。

您可以在cluster.routing.allocation.disk.watermark.flood_stage块中查看文档here

  

一旦有足够的磁盘,必须手动释放索引块   可用于继续进行索引操作的空间。

PUT /<your index name>/_settings
{
  "index.blocks.read_only_allow_delete": null
}