标签: hadoop mapreduce hadoop2 input-split
文件存储在大小 260 MB 的HDFS中,而HDFS默认块大小 64 MB 。在针对此文件执行map-reduce作业时,我发现它创建的输入拆分数仅为 4 。它是如何计算的?其余的 4 MB 。任何意见都非常感谢。
答案 0 :(得分:1)
输入拆分并不总是块大小。输入拆分是数据的逻辑表示。您的输入拆分可能是63mb,67mb,65mb,65mb(或者可能是基于逻辑记录大小的其他大小)...请参阅以下链接中的示例......
Hadoop input split size vs block size
Another example - see section 3.3...