Hadoop集群中的数据存储

时间:2015-05-06 23:06:40

标签: hadoop

这是一本关于hadoop书的问题,我认为答案是200但这是不正确的。任何人都可以解释一下吗?

假设您的Hadoop集群中有50个节点,总共200 TB(每个节点4 TB)的原始磁盘空间分配HDFS存储。假设Hadoop的默认配置,您可以存储多少数据?

1 个答案:

答案 0 :(得分:1)

HDFS将默认float设置为 3 ,因此,您的每个数据在HDFS 中都有3个副本,除非明确指定创作时间。

因此,在默认的HDFS配置下,您只能存储200/3 TB的实际数据。