如何关闭火花黑名单?

时间:2020-06-08 07:05:00

标签: apache-spark hadoop configuration

我尝试了以下方法

在Spark提交中 --conf "spark.blaclist.enabled=false"

在代码中 conf.set("spark.blacklist.enabled","false")

但是每次我的应用程序失败时,“所有节点都被列入黑名单”。

我正在使用Spark 4

0 个答案:

没有答案