将大量数据有效地移动到Elasticseach-hadoop

时间:2015-01-21 19:47:15

标签: hadoop twitter elasticsearch persistence flume

我使用RabbitMQ和一群工作人员从Twitter下载推文并处理它们。我还有一个Elasticsearch的实例,而不是Hadoop。我需要的是将收集的每条推文都移到该实例中,但由于我处理了大量数据,我不知道该怎么做。

如何将数据移至Elasticsearch?收到的每条推文插入是否过多?是Flume适合这个吗?我主要担心的是避免平台的瓶颈。实际上,我现在没有使用Flume来获取推文,因为我需要多个具有不同关键字的代理,并且每30分钟动态更新一次。

1 个答案:

答案 0 :(得分:1)

根据您对体系结构的了解,您可以使用多种方法将Tweets编入索引到Elasticsearch。我会考虑三个主要选择: