强制Spark在所有YARN执行程序上分配任务

时间:2015-10-07 12:25:26

标签: apache-spark yarn

我有一个包含5个节点的Spark群集。但是当我运行一个应用程序时,只使用了两个执行程序。如何在所有执行者上分配任务?

spark tasks

(这些并不总是相同的2,但从不超过2)

1 个答案:

答案 0 :(得分:1)

纱线默认使用2个核心。您必须设置num-executors,并且还应该查看executor-cores选项。