标签: apache-spark hadoop configuration
我尝试了以下方法
在Spark提交中 --conf "spark.blaclist.enabled=false"
--conf "spark.blaclist.enabled=false"
在代码中 conf.set("spark.blacklist.enabled","false")
conf.set("spark.blacklist.enabled","false")
但是每次我的应用程序失败时,“所有节点都被列入黑名单”。
我正在使用Spark 4