我尝试了很多解决方案,但没有一个能够正常工作。
- 将属性 yarn.nodemanager.disk-health-checker.max-disk-utilization-per-disk-percentage 添加到yarn-site.xml,其值为 98.5
醇>
2.将属性添加到yarn-site.xml下面
yarn.nodemanager.aux-services.spark_shuffle.class org.apache.spark.network.yarn.YarnShuffleService
- 在spark-defaults.conf中添加了属性 spark.yarn.jars = hdfs:// localhost:50010 / users / spark / jars / * .jar
醇>