我尝试在我的64位Windwos 7机器上安装Apache Spark。
我使用了指南 -
这就是我做的 -
安装Scala 设置环境变量SCALA_HOME并将%SCALA_HOME%\ bin添加到Path 结果:scala命令在命令提示符下工作
打开预先构建的Spark 设置环境变量SPARK_HOME并将%SPARK_HOME%\ bin添加到路径
下载winutils.exe 将winutils.exe放在C:/ hadoop / bin下 设置环境变量HADOOP_HOME并将%HADOOP_HOME%\ bin添加到路径
我已经安装了JDK 8.
现在,问题是,当我从C:/spark-2.1.1-bin-hadoop2.7/bin运行spark-shell时,我得到了这个 -
"C:\Program Files\Java\jdk1.8.0_131\bin\java" -cp "C:\spark-2.1.1-bin-hadoop2.7\conf\;C:\spark-2.1.1-bin-hadoop2.7\jars\*" "-Dscala.usejavacp=true" -Xmx1g org spark.repl.Main --name "Spark shell" spark-shell
这是一个错误吗?我做错了吗?
谢谢!
答案 0 :(得分:0)
尝试在Windows 7中安装Spark local时,我遇到相同的问题。请确保以下路径正确,并且可以与您一起使用。
现在,您可以运行cmd并编写spark-shell,它将起作用。