配置Spark Job Server以使用群集

时间:2016-07-24 13:20:58

标签: apache-spark docker spark-jobserver

我正在使用Spark Job服务器泊坞窗

docker run -d -p 8090:8090 --name sjs --net=<network_name> -e SPARK_MASTER=spark://<host_name>:7077 velvia/spark-jobserver:0.6.2.mesos-0.28.1.spark-1.6.1

虽然它似乎有效,但当我提交工作时:

curl -d 'input.config = ""' '<spark-job-server-ip>:8090/jobs?appName=my_test_app&classPath=test.testapp&sync=true

但是根据日志,作业在本地Spark上执行,而不是在集群中执行。

要在群集中而不是在本地计算机中执行作业,还需要哪些其他配置?

0 个答案:

没有答案