对于我们每天必须处理最少“2-3 TB”数据的业务用例,我正在对“Hadoop& Storm”进行分析。
毋庸置疑,“风暴”看起来令人印象深刻,因为它在处理传入的大数据方面的效率,但我不确定“风暴”是否足以处理“太字节”的数据,同时为我提供真实的数据时间结果与否?
有人可以解释一下吗?
谢谢, 加金德拉
答案 0 :(得分:3)
Storm是由twitter开发的。他们每天处理超过8 TB。这听起来应该足够你的情况了。 Afaik storm是分布式计算的最佳流媒体/实时系统。由于作业启动时间而不是本地处理流数据,hadoop不适合它。
事实上,当您拥有足够的服务器电源和存储空间等时,两者都可以处理您希望的每日数据。