基于每个作业设置max map / reduce任务

时间:2012-11-20 23:28:10

标签: hadoop task setting

我有两种类型的作业,要求群集每个节点具有不同数量的任务。在做完研究之后,我最终得到了这个页面:

https://issues.apache.org/jira/browse/HADOOP-5170

我想知道是否还有其他人知道走路的方法。我不想每次都重启集群。

或者,如果我为它设置了一个错误的数字,那么任何人都可以告诉我性能有多糟糕,比方说,每个节点有1或999999个任务。

谢谢,

0 个答案:

没有答案
相关问题