使用logstash导入数据到elasticsearch,速度太慢

时间:2015-08-14 08:32:31

标签: logstash

所有

我正在使用logstash将一些csv文件导入elasticsearch,我发现速度太慢了。

配置是:

input {
  stdin{}
}

filter {

csv{

columns=>['date','metric1','id','metric2','country_id','metric3','region_id']
separator=>","
}


  mutate {
    convert => [ "id", "integer" ]
    convert => [ "country_id", "integer" ]
         convert => [ "region_id", "float" ]


}

}

output {

 elasticsearch {
        action => "index"
protocol=>http
host => "10.64.201.***"
        index => "csv_test_data_01"
        workers => 1
    }


  stdout {
codec => rubydebug
 }
}

10.64.201。***是elasticsearch集群的主IP地址,该集群中有三个节点。

csv文件存储在这三个节点之一中。

我只是使用命令:blablabla -f **。config< csv文件

然后它开始将这些csv文件导入到elasticsearch集群中。

但速度太慢了。

这种情况有更好的解决方案吗?或者我做错了什么?

0 个答案:

没有答案