Hadoop的。关于HDFS中的文件创建

时间:2012-01-19 12:14:46

标签: hadoop hdfs

I read that每当客户端需要在HDFS(Hadoop分布式文件系统)中创建文件时,客户端的文件必须为64mb。 是真的吗? 我们如何在HDFS中加载小于64 MB的文件?我们可以加载一个文件,仅供参考处理其他文件吗?必须可用于所有数据节点吗?

1 个答案:

答案 0 :(得分:7)

  

我读到,只要客户端需要在HDFS(Hadoop分布式文件系统)中创建文件,客户端的文件必须是64mb。

你能提供同样的参考吗?任何大小的文件都可以放入HDFS。该文件被拆分为64 MB(默认)块,并保存在群集中的不同数据节点上。

  

我们可以加载一个文件,该文件仅供参考处理其他文件,并且必须可供所有数据节点使用吗?

块或文件是在特定数据节点上还是在所有数据节点上都无关紧要。只要数据节点是集群的一部分,数据节点就可以相互获取数据。

将HDFS视为一个非常大的硬盘驱动器,并编写用于从HDFS读取/写入数据的代码。如果需要,Hadoop将负责“读取”或“写入”多个数据节点等内部工作。

建议在HDFS上阅读以下1 2 3,尤其是第二部关于HDFS的漫画。