为什么在DC / OS上仅使用单个执行程序启动Spark应用程序?

时间:2016-11-01 16:22:22

标签: apache-spark mesos dcos

我安装了Spark,但是当我启动时,总​​是只有一个执行器被分配给应用程序(这就是驱动程序)。我已经尝试了一切,但未能找出为什么会发生这种情况。

以下是我用来启动的命令,让您了解所有参数:

dcos spark run --submit-args='--class <class-name> --executor-memory 6g --total-executor-cores 32 --driver-memory 6g <jar-file-source> <application-command-line-params>

0 个答案:

没有答案