我有以下Logstash过滤器:
...
if [type] == "binarysize" {
if ([file] =~ /svn/) {
drop {} }
grok {
match => {
"file" => "\A/home/data/binaries_size_stats/%{WORD:branch}/%{WORD:binary}/%{WORD:architecture}/%{WORD}"
}
}
grok {
match => {
"message" => "\A%{INT:commit_number},%{INT:binary_size},%{TIMESTAMP_ISO8601:date_and_time_of_commit}"
}
}
date {
match => ["date_and_time_of_commit", "ISO8601"]
#timezone => "CET"
}
}
...
我启动它,将一些数据推送到Elasticsearch,在Kibana做了一些情节,并让周末的一切都运转良好。
当我返回时,我的图表没有更新新数据,我收到常数" 14 Courier Fetch:2465个碎片中的15个失败。"消息无论我在浏览器中重新加载页面多少。
重新加载字段列表后,我发现我在" binary_size"中有一个冲突领域。我正在根据这个字段绘制数据,所以我的猜测是周末发生了一些奇怪的事情,Logstash将新文档推送到Elasticsearch。
我的问题是:" 如何找到字段冲突的文档?"。或者我该怎么做才能再次绘制新数据。