如何防止EMR Spark步骤重试?

时间:2016-01-07 16:38:14

标签: amazon-web-services apache-spark yarn emr

我有一个AWS EMR集群(emr-4.2.0,Spark 1.5.2),我从aws cli提交步骤。我的问题是,如果Spark应用程序失败,那么YARN正在尝试再次运行应用程序(在相同的EMR步骤下)。 我该如何防止这种情况?

我试图设置--conf spark.yarn.maxAppAttempts=1,它在环境/火花属性中正确设置,但它不会阻止YARN重新启动应用程序。

1 个答案:

答案 0 :(得分:-1)

您应该尝试将spark.task.maxFailures设置为1(默认为4)。

含义:

  

放弃工作前任何特定任务的失败次数。分散在不同任务中的故障总数不会导致作业失败;一项特定任务必须通过这一次尝试失败。应大于或等于1.允许的重试次数=此值 - 1.