我正在尝试在Windows桌面上安装Spark。一切都应该工作正常,但我得到一个错误“'cmd'不被识别为内部或外部命令......”
我安装了Scala,Java JDK并在C:\中解压缩了Spark tgz,但由于某些原因无法让Spark在cmd中启动。有任何想法吗?
答案 0 :(得分:10)
我的同事解决了这个问题。虽然Java似乎工作正常(参考图片),但是Spark尝试读取的Java路径在最后添加了一个额外的\ bin是不正确的。当它被删除后,Spark开始工作了! @gonbe,非常感谢你帮助我们的努力!
答案 1 :(得分:5)
我有类似的错误。我在修改后修改了它:
现在可行。
谢谢你们。
答案 2 :(得分:4)
(我不是Windows Spark用户) 用于Windows源代码的spark-shell.cmd需要" cmd"命令在PATH中可用。
https://github.com/apache/spark/blob/master/bin/spark-shell.cmd
您是否尝试添加包含" cmd.exe"的目录?在PATH环境变量?目录位置在屏幕截图中显示标题栏,环境变量设置可以通过控制面板完成。
答案 3 :(得分:2)
检查JAVA_HOME中的值并确保它指向正确的值。在路径值中添加%JAVA_HOME%/ bin。修改后关闭命令提示符并重新启动它。写下spark-shell它会运行。
答案 4 :(得分:1)
我的所有变量都没问题,所以我决定调试脚本,我在“spark-class2.cmd”中找到并在“%RUNNERS%”中添加另一对引号。 之前 “%RUNNER%” - Xmx128m -cp“%LAUNCH_CLASSPATH%”.... 后 “”%RUNNER%“” - Xmx128m -cp“%LAUNCH_CLASSPATH%”....
答案 5 :(得分:1)
我在命令提示符下执行Spark-shell时遇到了同样的错误。
我尝试了上面提到的所有内容,但无法解决问题。
所以,最后我添加了" C:\ Windows \ System32"在' PATH'系统变量的变量,它起作用了。
答案 6 :(得分:0)
对于我的情况,我有类似的问题。我不得不解决一些问题。
1-检查两个地方的 JAVA_HOME 是否正确;
2-然后我不得不更改 spark-2.1.1-bin-hadoop2.7 \ bin 文件夹中的以下行。
答案 7 :(得分:0)
答案 8 :(得分:0)
我遇到了同样的问题(启动spark-shell并得到系统找不到路径) 完成上述过程后(更改spark_home以排除/ bin即可正常工作 感谢大家的分享
答案 9 :(得分:0)
这些是解决Windows中所有这些问题的详细步骤
火花二进制文件
Winutils
Java
它可以位于具有C:\ Program这样的空间的文件夹中 Files \ AdoptOpenJDK \ jdk-8.0.262.10-hotspot将JAVA_HOME设置为 C:\ Program Files \ AdoptOpenJDK \ jdk-8.0.262.10-hotspot。请注意 “ bin”不是路径的一部分。
将用户和系统的“路径”设置为%JAVA_HOME%\ bin
通过上述设置,用户应该只需键入“ spark-shell”,火花外壳便应启动。
答案 10 :(得分:0)
spark-shell
命令运行 spark 'bin' 文件夹中的 spark-shell.cmd
文件。此文件包含以下命令 cmd /V /E /C ""%~dp0spark-shell2.cmd" %*"
。
cmd
命令要求将 path
系统变量设置为 %SystemRoot%\system32