经过36个小时的工作,Hadoop 1.0.3说:
INFO mapred.JobClient: map 42% reduce 0%
mapred.JobClient: Job Failed: # of failed Map Tasks exceeded allowed limit. FailedCount: 1.
java.io.IOException: Job failed!
at org.apache.hadoop.mapred.JobClient.runJob(JobClient.java:1265)
然后停了下来。
是否可以从一开始就重启Hadoop作业(地图0%减少0%)?
答案 0 :(得分:2)
似乎没有一种好方法可以重新启动失败的作业。要记住以下几点:
看起来像你的mapred配置[mapreduce.map.maxattempts = 1],默认值通常为4
mapred.JobClient: Job Failed: # of failed Map Tasks
exceeded allowed limit. FailedCount: 1.
您通常希望了解失败的原因。 (如果您发现了问题,请不要确定您的帖子)
由于虚假的原因,它可能失败了,您可以通过提供failure traps将此异常实施到mapreduce程序中。您可以使用Hadoop API实现相同的概念。