我是Spark的新手,需要你的帮助。我想在Windows 8上运行spark 2.0.2(Hadoop 2.7)。我已将系统变量和值定义为:
Java_Home C:\Progra~1\Spark Ecosystem\JDK\jdk1.8.0_111.
Hadoop_Home C:\Program Files\Spark ecosystem\winutils.
Spark_Home C:\Program Files\Spark ecosystem\Spark\bin.
Path %Java_Home%\bin; %Hadoop_Home%; %Spark_Home%;
我已经安装了Eclipse,它的exe文件正在运行。 Java -version工作正常,但无法识别spark-shell命令......
答案 0 :(得分:0)
您必须不覆盖路径。只是追加它。
cmd
是Windows“shell”,位于%WINDIR%\system32
。你需要将它保留在路径中(就像你在linux上删除/bin
的路径一样:之后没有多少工作)
执行此操作(在启动脚本中附加原始值PATH
):
set PATH=%Java_Home%\bin;%Hadoop_Home%;%Spark_Home%;%PATH%
极简主义版本:
set PATH=%WINDIR%\system32;%Java_Home%\bin;%Hadoop_Home%;%Spark_Home%