Spark在窗口中不处于独立模式

时间:2016-01-12 07:45:52

标签: scala apache-spark

我正在尝试在Windows中以独立模式安装bin/spark-shell,当我尝试运行mapreduce.job.running.map.limit命令时,它会出现以下错误:

Error message

1 个答案:

答案 0 :(得分:0)

您似乎已经下载了Linux的预构建二进制文件并尝试在Windows中运行它们?您可以提供有关您的设置的更多详细信息,请将错误放在文本中以便进行搜索,如果此问题持续存在,您希望Google用户能够找到它。

要在Windows上运行Spark,您必须构建它。这里有一个类似的问题(也许是一个骗局?我不能将其标记为这样):How to set up Spark on Windows?

更重要的是,这里是关于如何为Windows构建Spark的Spark文档。这是section of the Overview page

中的相关文字
  

如果您想从源代码构建Spark,visit Building Spark.

     

Spark在Windows和类UNIX系统(例如Linux,Mac OS)上运行。   在一台机器上本地运行很容易 - 你需要的就是拥有java   安装在您的系统PATH或JAVA_HOME环境变量上   指向Java安装。

     

Spark运行在Java 7 +,Python 2.6+和R 3.1+上。对于Scala API,   Spark 1.6.0使用Scala 2.10。您需要使用兼容的Scala   版本(2.10.x)。

如果您不准备从源代码构建Spark,那么您可能希望使用Virtual Box或VMWare并运行Linux VM,但这可能只对测试in local[*] mode有利。接近该链接,"但是,对于本地测试和单元测试,您可以传递“local”以在进程中运行Spark。"

您可能会在VM中运行主/驱动程序和worker / executor,但我不希望它在VM中的网络设置中运行良好。在没有尝试的情况下,我很难预测具体会出现什么问题,但我怀疑序列化对于初学者来说是一个问题。

更好的是获得廉价的PC并安装Linux并从那里开始。