我在调整Yarn集群上执行的Spark作业时遇到问题。我有一种感觉,我没有得到我的大部分群集,此外,我的工作失败了(执行者一直被删除)。
我有以下设置:
我使用不同的设置运行我的火花作业(实际连接到jupyter笔记本),例如。
pyspark --master yarn --num-executors 7 --executor-cores 4 --executor-memory 3G
pyspark --master yarn --num-executors 7 --executor-cores 7 --executor-memory 2G
pyspark --master yarn --num-executors 11 --executor-cores 4 --executor-memory 1G
我尝试了不同的组合,但是当我的遗嘱执行人员被摧毁时,他们似乎都没有工作。另外,我已经在某个地方读到,将spark.yarn.executor.memoryOverhead
增加到600MB是一种很好的方法,可以放弃执行程序(我这样做了),但似乎并没有帮助。我该如何安排工作?
此外,当我查看ResourceManager UI时,它说我的工作vcores使用了8个vcores,共计56个。我觉得我每个执行器都使用一个核心,但我并不感到困惑。明白为什么?
还有一件事,当我设置我的工作时,当我从HDFS读取数据以获得最佳性能时,我应该指定多少个分区?
答案 0 :(得分:0)