spark jobserver无法在集群

时间:2016-05-16 16:06:38

标签: apache-spark cassandra spark-jobserver

我们已经安装了一个使用server_start.sh在spark集群上启动的spark-jobserver,但无论我们如何处理它,我们都无法在多个worker上启动它。我们可以设法让它运行多个内核和更多内存,但不能通过多个节点运行。

我们尝试过的命令如下:

./server_start.sh --master spark://IP:PORT --deploy-mode cluster --total-executor cores 6
./server_start.sh --master spark://IP:PORT --deploy-mode cluster --total-executor cores 4 --executor-cores 2
./server_start.sh --master spark://IP:PORT --deploy-mode cluster --conf spark.driver.cores=4 --conf spark.driver.memory=7g
./server_start.sh --master spark://IP:PORT --deploy-mode cluster --conf spark.driver.cores=6 --conf spark.driver.memory=7g

前两个命令启动并显示一个工作人员使用一个核心和1GB,而第三个显示一个工作人员使用4个核心和7g。第四个命令显示要使用的6个核心,但状态为SUBMITTED。

我们已经通过以下命令启动spark shell来验证它是否可以在多个worker上启动和应用,该命令显示为具有2个worker和总共6个内核的运行驱动程序。

./spark-shell --master spark://IP:PORT --total-executor cores 6

感谢任何帮助。

1 个答案:

答案 0 :(得分:0)

Spark jobserver实际上是火花驱动程序而不是应用程序。我不能在工人之间分配负担。