C:\ .... bin \ spark-shell' cmd'不被视为....'

时间:2016-12-13 17:58:55

标签: apache-spark

我是Spark的新手,需要你的帮助。我想在Windows 8上运行spark 2.0.2(Hadoop 2.7)。我已将系统变量和值定义为:

Java_Home    C:\Progra~1\Spark Ecosystem\JDK\jdk1.8.0_111.
Hadoop_Home  C:\Program Files\Spark ecosystem\winutils.
Spark_Home   C:\Program Files\Spark ecosystem\Spark\bin.
Path          %Java_Home%\bin; %Hadoop_Home%; %Spark_Home%;  

我已经安装了Eclipse,它的exe文件正在运行。 Java -version工作正常,但无法识别spark-shell命令......

1 个答案:

答案 0 :(得分:0)

您必须覆盖路径。只是追加它。

cmd是Windows“shell”,位于%WINDIR%\system32。你需要将它保留在路径中(就像你在linux上删除/bin的路径一样:之后没有多少工作)

例如

执行此操作(在启动脚本中附加原始值PATH):

set PATH=%Java_Home%\bin;%Hadoop_Home%;%Spark_Home%;%PATH%

极简主义版本:

set PATH=%WINDIR%\system32;%Java_Home%\bin;%Hadoop_Home%;%Spark_Home%