标签: apache-spark hortonworks-data-platform hdinsight
当通过Livy提交长期运行的Spark批处理作业时,该作业默认为五次重试,这将永远失败。如何更改此项以便作业立即失败?
我的环境是Spark 1.6,在Azure HDInsight(HDP)上运行。
谢谢!
答案 0 :(得分:3)
这是纱线的配置,而不是Livy。 转到“高级纱线网站”下的纱线配置页面,如果您不想重试,请将“yarn.resourcemanager.am.max-attempts”从5更改为1。