通过Logstash将CSV文件导入Elasticsearch时出现性能问题

时间:2018-08-08 16:26:26

标签: csv elasticsearch logstash

我正在尝试导入几GB的CSV文件(大约5列,大约10+百万行),但是吞吐量非常低(〜1MB / s)。我不太确定问题可能是什么,但也许有人在这里有一些线索。

使用默认的Security Onion堆栈(评估模式),在8GB,i7(八核),SSD盒上,我希望达到什么吞吐量?使用CSV过滤器导入CSV文件时是否存在任何已知的吞吐量问题?同样使用日期过滤器(从CSV提取时间戳值)吗?

0 个答案:

没有答案