我们已经安装了一个使用server_start.sh在spark集群上启动的spark-jobserver,但无论我们如何处理它,我们都无法在多个worker上启动它。我们可以设法让它运行多个内核和更多内存,但不能通过多个节点运行。
我们尝试过的命令如下:
./server_start.sh --master spark://IP:PORT --deploy-mode cluster --total-executor cores 6
./server_start.sh --master spark://IP:PORT --deploy-mode cluster --total-executor cores 4 --executor-cores 2
./server_start.sh --master spark://IP:PORT --deploy-mode cluster --conf spark.driver.cores=4 --conf spark.driver.memory=7g
./server_start.sh --master spark://IP:PORT --deploy-mode cluster --conf spark.driver.cores=6 --conf spark.driver.memory=7g
前两个命令启动并显示一个工作人员使用一个核心和1GB,而第三个显示一个工作人员使用4个核心和7g。第四个命令显示要使用的6个核心,但状态为SUBMITTED。
我们已经通过以下命令启动spark shell来验证它是否可以在多个worker上启动和应用,该命令显示为具有2个worker和总共6个内核的运行驱动程序。
./spark-shell --master spark://IP:PORT --total-executor cores 6
感谢任何帮助。
答案 0 :(得分:0)
Spark jobserver实际上是火花驱动程序而不是应用程序。我不能在工人之间分配负担。