启动单个Spark Slave(或Worker)

时间:2015-04-29 07:18:16

标签: apache-spark

当我这样做时

spark-1.3.0-bin-hadoop2.4% sbin/start-slave.sh

我收到此消息

failed to launch org.apache.spark.deploy.worker.Worker:
                         Default is conf/spark-defaults.conf.

即使我有这个:

spark-1.3.0-bin-hadoop2.4% ll conf | grep spark-defaults.conf
-rw-rwxr--+ 1 xxxx.xxxxx ama-unix  507 Apr 29 07:09 spark-defaults.conf
-rw-rwxr--+ 1 xxxx.xxxxx ama-unix  507 Apr 13 12:06 spark-defaults.conf.template

知道为什么吗?

由于

2 个答案:

答案 0 :(得分:6)

我使用spark 1.6.1,您不再需要指出工号,因此实际使用情况为:

start-slave.sh spark://<master>:<port>

答案 1 :(得分:4)

首先,您应确保正确使用该命令,

Usage: start-slave.sh <worker#> <spark-master-URL>

其中<worker#>是您要在运行此脚本的计算机上启动的工作人员编号 <spark-master-URL>就像spark://localhost:7077