在Windows 7上安装Apache Spark |火花壳不起作用

时间:2017-06-14 11:51:48

标签: apache-spark windows-7 installation

我尝试在我的64位Windwos 7机器上安装Apache Spark。

我使用了指南 -

  1. Installing Spark on Windows 10

  2. How to run Apache Spark on Windows 7

  3. Installing Apache Spark on Windows 7 environment

  4. 这就是我做的 -

    1. 安装Scala 设置环境变量SCALA_HOME并将%SCALA_HOME%\ bin添加到Path 结果:scala命令在命令提示符下工作

    2. 打开预先构建的Spark 设置环境变量SPARK_HOME并将%SPARK_HOME%\ bin添加到路径

    3. 下载winutils.exe 将winutils.exe放在C:/ hadoop / bin下 设置环境变量HADOOP_HOME并将%HADOOP_HOME%\ bin添加到路径

    4. 我已经安装了JDK 8.

      现在,问题是,当我从C:/spark-2.1.1-bin-hadoop2.7/bin运行spark-shell时,我得到了这个 -

      "C:\Program Files\Java\jdk1.8.0_131\bin\java" -cp "C:\spark-2.1.1-bin-hadoop2.7\conf\;C:\spark-2.1.1-bin-hadoop2.7\jars\*" "-Dscala.usejavacp=true" -Xmx1g org spark.repl.Main --name "Spark shell" spark-shell
      

      这是一个错误吗?我做错了吗?

      谢谢!

1 个答案:

答案 0 :(得分:0)

尝试在Windows 7中安装Spark local时,我遇到相同的问题。请确保以下路径正确,并且可以与您一起使用。

  • 创建JAVA_HOME变量:C:\ Program Files \ Java \ jdk1.8.0_181 \ bin
  • 将以下部分添加到您的路径中:;%JAVA_HOME%\ bin
  • 创建SPARK_HOME变量:C:\ spark-2.3.0-bin-hadoop2.7 \ bin
  • 将以下部分添加到您的路径中:;%SPARK_HOME%\ bin
  • 最重要的部分Hadoop路径应在winutils.ee之前包含bin文件,如下所示:C:\ Hadoop \ bin确保在该路径中找到winutils.exe。
  • 创建HADOOP_HOME变量:C:\ Hadoop
  • 在路径中添加以下部分:;%HADOOP_HOME%\ bin

现在,您可以运行cmd并编写spark-shell,它将起作用。