如何在Elasticsearch

时间:2015-12-14 15:16:34

标签: elasticsearch logstash kibana logstash-forwarder sense

我有以下Logstash过滤器:

...
if [type] == "binarysize" {
            if ([file] =~ /svn/) {
                    drop {} }
            grok {
                    match => {
                            "file" => "\A/home/data/binaries_size_stats/%{WORD:branch}/%{WORD:binary}/%{WORD:architecture}/%{WORD}"
                    }
            }
            grok {
                    match => {
                            "message" => "\A%{INT:commit_number},%{INT:binary_size},%{TIMESTAMP_ISO8601:date_and_time_of_commit}"
                    }
            }
           date {
                     match =>  ["date_and_time_of_commit", "ISO8601"]
                    #timezone => "CET"
           }
   }
...

我启动它,将一些数据推送到Elasticsearch,在Kibana做了一些情节,并让周末的一切都运转良好。

当我返回时,我的图表没有更新新数据,我收到常数" 14 Courier Fetch:2465个碎片中的15个失败。"消息无论我在浏览器中重新加载页面多少。

重新加载字段列表后,我发现我在" binary_size"中有一个冲突领域。我正在根据这个字段绘制数据,所以我的猜测是周末发生了一些奇怪的事情,Logstash将新文档推送到Elasticsearch。

我的问题是:" 如何找到字段冲突的文档?"。或者我该怎么做才能再次绘制新数据。

0 个答案:

没有答案