hdfs的默认块大小为128MB或64MB?在hadoop明确指南中它被称为“HDFS,也有块的概念,但它是一个更大的单位 - 默认为128 MB”。任何人都可以告诉哪个是默认大小?
答案 0 :(得分:2)
引用hadoop配置默认值的最佳位置是apache hadoop website。默认配置和值存在于apache hadoop网站的默认xml文件中。
问题的答案出现在hdfs-default.xml中。截至目前,最新的hadoop稳定版本为2.9.0,块大小(dfs.blocksize
)的值为128 MB(134217728 bytes
)。
在hadoop 1.x中,块大小的默认值为64 MB。现在,在具有高速网络和低成本存储的世界中,它们将默认值设置为128 MB。
注意: apache网站中提供的hdfs-default.xml
,core-default.xml
,yarn-default.xml
文件可用作对在apache hadoop中找到属性的默认值。
答案 1 :(得分:1)
此document表明它是128M
(搜索dfs.blocksize
)