如何在map-reduce作业中增加处理输入数据文件的大小?

时间:2018-01-23 07:11:07

标签: hadoop mapreduce hdfs bigdata

目前我正在使用具有以下配置的群集: 1个namenode和5个datanode。每个数据节点有8.7TB的硬盘和32GB的RAM。 当我尝试执行300GB以上的map-reduce作业时,我得到一个错误,但是当我尝试使用相同代码执行300GB以下数据集的作业时,它会毫无问题地执行。看起来我的集群无法处理300GB以上的数据,是这样吗?我可以处理300GB以上数据集的map-reduce作业,我需要更改哪些配置?我是否需要对我的驱动程序进行更改?

0 个答案:

没有答案