Kibana 4 - 数字字段

时间:2015-02-12 13:31:56

标签: kibana

对此非常陌生。使用logstash导入包含2列的csv文件,如此

lun 16 feb 15; 3,00
mar 17 feb 15; 4,00

...

第一列是日期,第二列是湿度

然后我想制作一个非常简单的grapf,其中kibana显示X上的数据,Y上的湿度值 - 超级基本的东西

看起来我无法将2个文件正确导入或被Kibana识别为field1:date field2:number

这是我得到的

{
  "_index": "prova-2015.02.12",
  "_type": "logs",
  "_id": "AUt9lYFzON9412qlRdDl",
  "_score": 1,
  "_source": {
    "message": [
      "lun 16 feb 15;3,00"
    ],
    "@version": "1",
    "@timestamp": "2015-02-12T11:38:43.283Z",
    "host": "ELK-Dev-and-Demo",
    "path": "/home/elkadmin/Documenti/Analytics/data-value.csv",
    "Data": "lun 16 feb 15",
    "HUM": "3,00"
  },
  "fields": {
    "@timestamp": [
      1423741123283
    ],
    "Data": [
      "15"
    ]
  }
}

仍然在Kibana 4看起来像numeris值被解释为字符串。我在导入它时做错了什么?

Logstash配置文件

input {  
      file {
          path => "/home/elkadmin/Documenti/Analytics/data-value.csv"
          start_position => "beginning"
      }
}

filter {  
    csv {
        columns => ["Data", "HUM"]
        separator => ";"
    }
}

output {  
    elasticsearch {
        action => "index"
    protocol => "http"
        host => "localhost"
        index => "prova-%{+YYYY.MM.dd}"
        workers => 1
    }
     stdout { 
    codec => rubydebug
    }
}

数据文件已从Excel文件保存到csv(为日期和编号设置了正确的单元格类型);

mer 11 feb 15;1,00
gio 12 feb 15;4,00
ven 13 feb 15;5,60
sab 14 feb 15;8,00
dom 15 feb 15;12,50
lun 16 feb 15;3,00
mar 17 feb 15;4,60
mer 18 feb 15;7,00
gio 19 feb 15;2,20
ven 20 feb 15;5,00
sab 21 feb 15;4,50
dom 22 feb 15;2,35
lun 23 feb 15;3,00
mar 24 feb 15;6,00
mer 25 feb 15;9,10
gio 26 feb 15;2,20

最后一个问题也是如何定义适当的可视化以显示日期和值,为什么在Y中我总是获得Aggregate的选项而不是日期的具体值?

X上的日期直方图不起作用,Fatal Erro当我选择它并应用(当我理解你让Kibana识别日期和数字时,更多细节在另一个Q中)

提前致谢

˚F

1 个答案:

答案 0 :(得分:1)

我没有看到您正在做任何事情,以使这些字段被解释为字符串以外的任何字段。

有两种选择:

  1. 为指定' date'的索引设置a mapping作为日期字段和' hum'作为整数。
  2. 在插入elasticsearch之前,使用logstash的mutate->转换功能(对于int)和日期{}(对于日期)来获取正确格式的字段。
  3. 如果您使用#1,请注意Elasticsearch会删除任何无法强制转换为正确类型的记录。