比Hadoop集群存储更大的文件

时间:2018-04-20 04:18:55

标签: hadoop hdfs datanode

  1. 如果我在HDFS中存储的文件是5GB,但每个只有3个DataNode,会发生什么?

  2. 假设我将3GB的文件存储在HDFS中,每个文件有4个DataNode。处理后我有一些results.txt。存储在DataNodes中的已处理文件块会发生什么?因为如果我想存储另一个3GB文件进行处理,那么就没有足够的空间了吗?或者这些块可能在处理后被删除?我应该自己删除吗?

0 个答案:

没有答案