标签: hadoop hdfs datanode
如果我在HDFS中存储的文件是5GB,但每个只有3个DataNode,会发生什么?
假设我将3GB的文件存储在HDFS中,每个文件有4个DataNode。处理后我有一些results.txt。存储在DataNodes中的已处理文件块会发生什么?因为如果我想存储另一个3GB文件进行处理,那么就没有足够的空间了吗?或者这些块可能在处理后被删除?我应该自己删除吗?