我可以使用spark-shell --master local[2]
在Windows上运行apache spark。我们如何将奴隶添加到主节点?
我认为YARN和Mesos在Windows上不可用。在Windows 7上设置Spark群集的步骤是什么?
截至目前,我们无法选择切换到基于Unix的系统。
答案 0 :(得分:0)
tl; dr 您无法将奴隶添加到local
模式。
local
模式是唯一一种所有Spark服务在单个JVM中运行的非集群模式。请阅读Master URLs了解其他选项(关于主网址)。
如果您想拥有群集部署环境,则应使用Cluster Mode Overview中所述的Spark Standalone,Hadoop YARN或Apache Mesos。我强烈建议您在进入更高级的集群管理器之前先使用Spark Standalone。
我在Mac OS上,所以我可以确定集群管理器可靠地在Windows 7上运行,但我确实看到Spark Standalone在Windows上工作。您应该使用spark-class
启动Master和slave,因为启动脚本适用于Unix操作系统。
答案 1 :(得分:0)
最后找到了在Windows上设置spark群集的相关链接。