标签: java hadoop bigdata
我对mapreduce.job.speculative.slowtaskthreshold有疑问。
mapreduce.job.speculative.slowtaskthreshold
文档说:
任务的进度率必须低于所有正在运行的任务的平均值的标准差数量。因为任务被认为太慢了。
我很好奇当一个过程被考虑时会发生什么?#34;太慢"。它会杀死并重新启动吗?刚刚杀了?我很好奇,因为我认为我可能遇到了竞争条件,并希望调整参数以最大限度地减少问题。
来源:http://hadoop.apache.org/docs/current/hadoop-mapreduce-client/hadoop-mapreduce-client-core/mapred-default.xml