Hadoop的slowtaskthreshold是否有助于解决竞争状况?

时间:2015-04-30 18:39:56

标签: java hadoop bigdata

我对mapreduce.job.speculative.slowtaskthreshold有疑问。

文档说:

  

任务的进度率必须低于所有正在运行的任务的平均值的标准差数量。因为任务被认为太慢了。

我很好奇当一个过程被考虑时会发生什么?#34;太慢"。它会杀死并重新启动吗?刚刚杀了?我很好奇,因为我认为我可能遇到了竞争条件,并希望调整参数以最大限度地减少问题。

来源:http://hadoop.apache.org/docs/current/hadoop-mapreduce-client/hadoop-mapreduce-client-core/mapred-default.xml

0 个答案:

没有答案