我需要实现一个大数据存储+处理系统。
数据每天都在增加(大约每天最多5000万行),数据符合大约10个字段(日期,数字,文本,ID)的非常简单的JSON文档。
然后可以在线查询数据(如果可能),在文档的某些字段(日期范围查询,ID等)上进行任意分组。
我正在考虑使用MongoDB集群来存储所有这些数据并为我需要查询的字段构建索引,然后在apache Spark集群中处理数据(主要是简单的聚合+排序)。也许使用Spark-jobserver在它周围构建一个rest-api。
我担心mongoDB扩展可能性(即存储10b +行)和吞吐量(快速发送1b +值的行以进行处理)或能够在如此大的数据库中维护索引。
相比之下,我考虑使用cassandra或hbase,我认为它更适合存储大型数据集,但在查询时提供的性能较低,如果我提供在线查询,我最终需要这些性能。
1 - mongodb + spark是这种用例的经过验证的堆栈吗?
2 - 是mongodb(存储+查询性能)可扩展性无限制吗?
提前致谢
答案 0 :(得分:7)
如前所述,有许多NoSQL解决方案可以满足您的需求。我可以推荐MongoDB与Spark *一起使用,特别是如果你有大型MongoDB集群的操作经验。
有一篇关于MongoDB的turning analytics into realtime queries的白皮书。或许更有趣的是Eastern Airlines关于他们使用MongoDB和Spark的博客文章,以及它如何为每天16亿次航班搜索提供支持。
关于数据大小,然后在MongoDB中管理包含那么多数据的集群是很正常的。任何解决方案的性能部分都是快速向Spark发送1b +文档进行处理。并行和利用数据局部性是关键。此外,你的Spark算法需要利用这种并行性 - 大量数据的混乱是非常昂贵的。
答案 1 :(得分:0)
在存储数据时,几乎任何NoSQL数据库都能满足您的需求。你是对的,MongoDB在查询数据方面比Hbase和Cassandra提供了一些额外的功能。但是elasticsearch是高速存储和检索/查询数据(指标)的成熟解决方案。
以下是有关在Spark中使用elasticsearch的更多信息:
https://www.elastic.co/guide/en/elasticsearch/hadoop/master/spark.html
我实际上会使用完整的ELK堆栈。由于Kibana允许您通过可视化功能(图表等)轻松浏览数据。
我敢打赌你已经拥有了Spark,所以我建议你在同一台机器/集群上安装ELK堆栈来测试它是否适合你的需求。