对此非常陌生。使用logstash导入包含2列的csv文件,如此
lun 16 feb 15; 3,00
mar 17 feb 15; 4,00
...
第一列是日期,第二列是湿度
然后我想制作一个非常简单的grapf,其中kibana显示X上的数据,Y上的湿度值 - 超级基本的东西
看起来我无法将2个文件正确导入或被Kibana识别为field1:date field2:number
这是我得到的
{
"_index": "prova-2015.02.12",
"_type": "logs",
"_id": "AUt9lYFzON9412qlRdDl",
"_score": 1,
"_source": {
"message": [
"lun 16 feb 15;3,00"
],
"@version": "1",
"@timestamp": "2015-02-12T11:38:43.283Z",
"host": "ELK-Dev-and-Demo",
"path": "/home/elkadmin/Documenti/Analytics/data-value.csv",
"Data": "lun 16 feb 15",
"HUM": "3,00"
},
"fields": {
"@timestamp": [
1423741123283
],
"Data": [
"15"
]
}
}
仍然在Kibana 4看起来像numeris值被解释为字符串。我在导入它时做错了什么?
Logstash配置文件
input {
file {
path => "/home/elkadmin/Documenti/Analytics/data-value.csv"
start_position => "beginning"
}
}
filter {
csv {
columns => ["Data", "HUM"]
separator => ";"
}
}
output {
elasticsearch {
action => "index"
protocol => "http"
host => "localhost"
index => "prova-%{+YYYY.MM.dd}"
workers => 1
}
stdout {
codec => rubydebug
}
}
数据文件已从Excel文件保存到csv(为日期和编号设置了正确的单元格类型);
mer 11 feb 15;1,00
gio 12 feb 15;4,00
ven 13 feb 15;5,60
sab 14 feb 15;8,00
dom 15 feb 15;12,50
lun 16 feb 15;3,00
mar 17 feb 15;4,60
mer 18 feb 15;7,00
gio 19 feb 15;2,20
ven 20 feb 15;5,00
sab 21 feb 15;4,50
dom 22 feb 15;2,35
lun 23 feb 15;3,00
mar 24 feb 15;6,00
mer 25 feb 15;9,10
gio 26 feb 15;2,20
最后一个问题也是如何定义适当的可视化以显示日期和值,为什么在Y中我总是获得Aggregate的选项而不是日期的具体值?
X上的日期直方图不起作用,Fatal Erro当我选择它并应用(当我理解你让Kibana识别日期和数字时,更多细节在另一个Q中)
提前致谢
˚F
答案 0 :(得分:1)
我没有看到您正在做任何事情,以使这些字段被解释为字符串以外的任何字段。
有两种选择:
如果您使用#1,请注意Elasticsearch会删除任何无法强制转换为正确类型的记录。