所有
我正在使用logstash将一些csv文件导入elasticsearch,我发现速度太慢了。
配置是:
input {
stdin{}
}
filter {
csv{
columns=>['date','metric1','id','metric2','country_id','metric3','region_id']
separator=>","
}
mutate {
convert => [ "id", "integer" ]
convert => [ "country_id", "integer" ]
convert => [ "region_id", "float" ]
}
}
output {
elasticsearch {
action => "index"
protocol=>http
host => "10.64.201.***"
index => "csv_test_data_01"
workers => 1
}
stdout {
codec => rubydebug
}
}
10.64.201。***是elasticsearch集群的主IP地址,该集群中有三个节点。
csv文件存储在这三个节点之一中。
我只是使用命令:blablabla -f **。config< csv文件
然后它开始将这些csv文件导入到elasticsearch集群中。
但速度太慢了。
这种情况有更好的解决方案吗?或者我做错了什么?