如今,我一直受到创建数据仓库以存储和处理大量数据的挑战。预计金额每天超过70亿次。数据应保存7天。平均事件大小约为0.5 - 1 Kb。我们需要将数据处理为:
目前我正在评估:
所以我对:
感兴趣答案 0 :(得分:4)
我最近根据Mark Lit的系列文章比较了BigQuery,Spark,Hive,Presto,ElasticSearch,AWS Redshift,AWS EMR和Google Dataproc:
摘要摘要:
但是你可以获得的最佳基准是你自己的:尝试BigQuery应该快速而简单。然后尝试找到另一个加载数据的平台,快速查询或接近价格。马克试过了,这些都是他的发现。
答案 1 :(得分:1)
我们使用BigQuery,专业人士:
您找到的更多用例和体系结构:http://www.slideshare.net/martonkodok/complex-realtime-event-analytics-using-bigquery-crunch-warmup