为什么我们需要hadoop为超级

时间:2011-02-28 12:49:00

标签: hadoop hbase hypertable

我用c ++编写了一个爬虫,我正在寻找一个我发现的分布式数据存储2 1)hbase 2)过度充实

两者都是Big table的实现,我刚刚评论过高强度..因为它是用c ++实现的,而且... hbase是最广泛使用的 我的问题是我们需要hadoop的方式......如果我在hadoop上运行超强,是否有任何好处?

2 个答案:

答案 0 :(得分:4)

不需要使用Hadoop。 Hypertable只需要在分布式文件系统上运行。因此,您可以选择Hadoop DFS,KosmosFS,GlusterFS,Ceph以及其他一些(如MooseFS或Lustre)。

共同利益取决于应用要求和现有基础设施。从故障排除的角度来看,社区(尤其是Hadoop)的规模也是很重要的因素。

答案 1 :(得分:0)

您还可以查看cassandra(http://cassandra.apache.org/)另一个与Big Table类似的实现。