答案 0 :(得分:0)
整个任务的输入大小只是来自hdfs的输入文件的大小。
eack mapper任务的输入大小根据以下属性计算(64是默认大小):
mapreduce.input.fileinputformat.split.minsize=64Mb
Hadoop将输入拆分为大小为split size
的片段,等于:
max(mapred.min.split.size, min(mapred.max.split.size, dfs.block.size))
使用此属性获取输入的大小。