标签: hadoop apache-spark yarn
我想知道在没有Hadoop重试任务的情况下,当我在地图中发现错误或者减少任务时,是否有办法停止作业(并使其处于FAILED或KILLED状态)。
如果可能的话,我希望保持"正常"失败纱线重启任务。
目前我正在抛出异常,但Hadoop再次尝试。
它是Scala / Spark代码,但它在Java / Hadoop中也很有用。
由于