标签: hadoop
我有一个mapreduce作业在许多网址上运行并解析它们。 我需要办法处理一个解析任务在OOM错误等致命错误上崩溃的场景。 在正常的hadoop行为中,任务会在指定的时间内重试,并且作业失败。 问题是网址在某种程度上被破坏导致此错误。这些网址将在所有重试中失败。
任务失败后有没有办法进行干预?或者在重试次数达到之后?并防止整个工作失败?