计算MapReduce中的输入拆分

时间:2018-02-11 18:33:08

标签: hadoop mapreduce hadoop2 input-split

文件存储在大小 260 MB 的HDFS中,而HDFS默认块大小 64 MB 。在针对此文件执行map-reduce作业时,我发现它创建的输入拆分数仅为 4 。它是如何计算的?其余的 4 MB 。任何意见都非常感谢。

1 个答案:

答案 0 :(得分:1)

输入拆分并不总是块大小。输入拆分是数据的逻辑表示。您的输入拆分可能是63mb,67mb,65mb,65mb(或者可能是基于逻辑记录大小的其他大小)...请参阅以下链接中的示例......

Hadoop input split size vs block size

Another example - see section 3.3...