与Failed to start master for spark in windows 10相同的问题也未解决。
通过测试pyspark.cmd和spark-shell.cmd
,我的火花效果很好跑完.\sbin\start-master.sh
后,我得到了:
ps: unknown option -- o
Try 'ps --help' for more information.
starting org.apache.spark.deploy.master.Master, logging to C:\spark-1.6.1-bin-hadoop2.6/logs/spark--org.apache.spark.deploy.master.Master-1-%MY_USER_NAME%-PC.out
ps: unknown option -- o
Try 'ps --help' for more information.
failed to launch org.apache.spark.deploy.master.Master:
========================================
Picked up _JAVA_OPTIONS: -Xmx512M -Xms512M
full log in C:\spark-1.6.1-bin-hadoop2.6/logs/spark--org.apache.spark.deploy.master.Master-1-%MY_USER_NAME%-PC.out
我尝试访问Web UI,而localhost:4040正在使用localhost:8080无法访问。
我发现在%SPARK_HOME%/ logs文件夹中创建了.log文件。它们包含相同的内容:
Spark命令:
C:\Program Files\Java\jdk1.7.0_79\bin\java -cp C:\spark-1.6.1-bin-hadoop2.6/conf\;C:\spark-1.6.1-bin-hadoop2.6/lib/spark-assembly-1.6.1-hadoop2.6.0.jar;C:\spark-1.6.1-bin-hadoop2.6\lib\datanucleus-api-jdo-3.2.6.jar;C:\spark-1.6.1-bin-hadoop2.6\lib\datanucleus-core-3.2.10.jar;C:\spark-1.6.1-bin-hadoop2.6\lib\datanucleus-rdbms-3.2.9.jar -Xms1g -Xmx1g -XX:MaxPermSize=256m org.apache.spark.deploy.master.Master --ip hahaha-PC --port 7077 --webui-port 8080
========================================
Picked up _JAVA_OPTIONS: -Xmx512M -Xms512M
工作环境: Spark:1.6.1 Windows 10
期待您的回复并感谢您的时间!
答案 0 :(得分:45)
位于%SPARK_HOME%\sbin
的启动脚本不支持Windows。您需要手动运行master和worker,如下所示。
在命令提示符中转到%SPARK_HOME%\bin
文件夹
运行spark-class org.apache.spark.deploy.master.Master
以运行主服务器。这会为您提供spark://ip:port
运行spark-class org.apache.spark.deploy.worker.Worker spark://ip:port
以运行该工作程序。确保使用在步骤2中获得的URL。
运行spark-shell --master spark://ip:port
将应用程序连接到新创建的群集。
答案 1 :(得分:6)
如果您想要启动主工作者和奴隶,这应该适合您。它对我有用
spark-class org.apache.spark.deploy.master.Master
您需要将浏览器指向http://localhost:8080/。如果您收到错误消息“找不到服务器”刷新页面。在此页面中,您将获得您独特的网址。看起来像这个URL:spark://192.xxx.xx.xxx:7077
spark-class org.apache.spark.deploy.worker.Worker spark://ip:port
此部分
spark://ip:port是从步骤1获取的网址。 刷新在步骤1中打开的浏览器选项卡,以查看该工作程序是否已启动。
注意: 不支持JDK 1.9
答案 2 :(得分:5)
刚刚在这里找到答案:https://spark.apache.org/docs/1.2.0/spark-standalone.html
“注意:启动脚本目前不支持Windows。要在Windows上运行Spark群集,请手动启动master和worker。”
答案 3 :(得分:1)
执行spark-class org.apache.spark.deploy.master.Master后,只需转到http://localhost:8080即可获取ip:port。然后打开另一个命令shell来执行spark-class org.apache.spark.deploy.worker.Worker spark:// IP:PORT
答案 4 :(得分:0)