我正在尝试从filebeat发送数据 - > logstash - > Elasticsearch Cluster - > kibana。
我有一个包含3个节点的集群。 2是主要合格节点,1是客户端节点。 我已使用以下命令
检查了群集的运行状况卷曲-XGET“http://132.186.102.61:9200/_cluster/state?pretty” 我可以通过选举的主人正确看到输出。
当filebeat将数据推送到logstash时,我看到以下错误, logstash.outputs.elasticsearch - 使用响应代码重试失败的操作:503({“type”=>“unavailable_shards_exception”,“reason”=>“[logstash-2017.06.05] [1]主分片未激活超时: [1m],请求:[BulkShardRequest [[logstash-2017.06.05] [1]]包含[3]个请求]“})
这是我的logstash.conf,
input {
beats {
port => "5043"
#ssl => true
#ssl_certificate_authorities => "D:/Softwares/ELK/ELK_SSL_Certificates/testca/cacert.pem"
#ssl_certificate => "D:/Softwares/ELK/ELK_SSL_Certificates/server/cert.pem"
#ssl_key => "D:/Softwares/ELK/ELK_SSL_Certificates/server/pkcs8.key"
#ssl_key_passphrase => "MySecretPassword"
#ssl_verify_mode => "force_peer"
}
}
filter{
grok
{
match => {"message" =>"%{IP:client} %{NUMBER:duration} %{GREEDYDATA:messageFromClient}"}
}
}
#filter{
#if "_grokparsefailure" in [tags] {
# drop { }
# }
#}
output {
elasticsearch {hosts => ["132.186.189.127:9200","132.186.102.61:9200","132.186.102.43:9200"]}
stdout { codec => rubydebug }
}
我可以知道这个问题的原因。