Apache Spark主服务器运行失败

时间:2016-04-24 20:33:45

标签: scala apache-spark bigdata

我试图运行C:\Spark\spark-1.6.1-bin-hadoop2.6\sbin>start-master.sh ,但出现以下错误

error

我还注意到在运行bin/spark-shell

时发出警告
16/04/24 23:14:41 WARN : Your hostname, Pavilion resolves to a loopback/non-reachable address: fe80:0:0:0:0:5efe:c0a8:867%net14, but we couldn't find any external IP address!

http://localhost/8080也是不可取的。

任何人都可以告诉我哪里出错了,或者我是否错过了正确运行Master的任何设置?

1 个答案:

答案 0 :(得分:1)

问题是此脚本不适合在Windows计算机上执行。请参阅Official Spark Manual Note: The launch scripts do not currently support Windows 经验法则是只有以.cmd结尾的脚本才能在Windows上运行。虽然以.sh结尾的脚本是为Linux和Mac OS设计的。虽然应该可以在Windows上手动启动Spark Master,但最好只运行local[*]模式,除非您正在创建一个Windows机器群集。 local[*]模式已经充分利用了本地机器的功能。