安装spark时出错

时间:2016-09-22 17:36:38

标签: hadoop apache-spark installation

我正在尝试在Windows 8.1中安装spark并获得以下错误。

C:> cd Program Files \ spark-1.5.0 \ bin

C:\ Program Files \ spark-1.5.0 \ bin> spark-shell “C:\ Program”未被识别为内部或外部命令, 可操作程序或批处理文件。

C:\ Program Files \ spark-1.5.0 \ bin>

并完成先决条件,请参阅以下命令,

C:\ Users \ Anbu> java -version java版“1.8.0_65” Java(TM)SE运行时环境(版本1.8.0_65-b17) Java HotSpot(TM)64位服务器VM(内置25.65-b01,混合模式)

C:\ Users \ Anbu> scala -version Scala代码运行器版本2.11.8 - 版权所有2002-2016,LAMP / EPFL C:\用户\暗部>

也设置系统属性。

所以我错过了哪里?为什么会出现此错误? 任何人请帮我安装火花。

谢谢, Anbu k

1 个答案:

答案 0 :(得分:0)

好像你下载了Spark的源代码包。

对于安装,您需要构建Spark包。您可以通过选择特定的包类型从Sparks的下载页面下载预构建的Spark包(如下图所示)。所以下载预建包并检查安装。它应该有效。enter image description here