Hadoop / Spark:杀死一个任务,不要重试

时间:2018-03-05 13:40:34

标签: hadoop apache-spark yarn

我想知道在没有Hadoop重试任务的情况下,当我在地图中发现错误或者减少任务时,是否有办法停止作业(并使其处于FAILED或KILLED状态)。

如果可能的话,我希望保持"正常"失败纱线重启任务。

目前我正在抛出异常,但Hadoop再次尝试。

它是Scala / Spark代码,但它在Java / Hadoop中也很有用。

由于

0 个答案:

没有答案