标签: hadoop
这是一本关于hadoop书的问题,我认为答案是200但这是不正确的。任何人都可以解释一下吗?
假设您的Hadoop集群中有50个节点,总共200 TB(每个节点4 TB)的原始磁盘空间分配HDFS存储。假设Hadoop的默认配置,您可以存储多少数据?
答案 0 :(得分:1)
HDFS将默认float设置为 3 ,因此,您的每个数据在HDFS 中都有3个副本,除非明确指定创作时间。
float
因此,在默认的HDFS配置下,您只能存储200/3 TB的实际数据。