我正在使用Spark Job服务器泊坞窗
docker run -d -p 8090:8090 --name sjs --net=<network_name> -e SPARK_MASTER=spark://<host_name>:7077 velvia/spark-jobserver:0.6.2.mesos-0.28.1.spark-1.6.1
虽然它似乎有效,但当我提交工作时:
curl -d 'input.config = ""' '<spark-job-server-ip>:8090/jobs?appName=my_test_app&classPath=test.testapp&sync=true
但是根据日志,作业在本地Spark上执行,而不是在集群中执行。
要在群集中而不是在本地计算机中执行作业,还需要哪些其他配置?