无法将Logunash中的@UNIX_MS解析为Elasticsearch

时间:2016-06-14 12:35:58

标签: ruby json templates elasticsearch logstash

因此,我想要存储在Elasticsearch中的数据是一个csv文件。它包含以下内容:

1465309033156,84,http://test.com/purchase.php,200,OK,ThreadGroup 1-3,true,6,6,84,testPC,0
1465309033469,176,http://test.com/,200,OK,ThreadGroup 1-7,true,7,7,176,testPC,91

请注意,第一行等于UNIX_MS中的时间。

我正在尝试使用logstash发送数据。这是我的配置文件:

input {
    file {
        sincedb_path => "NUL"
        ignore_older => 0
        type => "csv"
        path => ["C:/result/piet.jtl"]
        start_position => "beginning"
    }
}
filter {
    csv {
        columns => ["@jmeter_timestamp", ...]
        separator => ","
    }
    date {
        locale => "en"
        match => ["@jmeter_timestamp", "UNIX_MS"]
        remove_field => ["@jmeter_timestamp"]
        target => "@timestamp"
        timezone => "Europe/Amsterdam"
    }
}
output {
    elasticsearch {
        template => "c:/result/piet.json"
        template_name => "piet"
        hosts => ["192.168.43.51:9200"]
        index => "piet-%{+YYYY.MM.dd}"
    }
}

这是piet.json的一部分:

"mappings": {
    "logs": {
        "properties": {
            "@timestamp": {
                "type": "date"
            },

现在我在运行配置文件时遇到错误。

"error"=>{
  "type"=>"mapper_parsing_exception",
  "reason"=>"failed to parse [@timestamp]",
  "caused_by"=>{
    "type"=>"illegal_argument_exception", 
    "reason"=>"Invalid format: \"2016-06-07T14:17:34.611Z\" is malformed at \"-06-07T14:17:34.611Z\""
  }}}}, :level=>:warn}

我的标准输出如下:

console output

我只是输了。如何在Elasticsearch中插入csv文件中的数据..

1 个答案:

答案 0 :(得分:0)

自己解决了。 Elasticsearch抱怨日期,因为它无法正确识别日期。 所以,我通过Kopf插件从Elasticsearch中完全删除了映射。

我重新添加了.json,包括以下细节。 (注意格式)

"mappings": {
       "logs": {
       "properties": {
           "@timestamp": {
               "type": "date",
             "format" : "strict_date_optional_time||epoch_millis"

现在正在运作。 Huray