我尝试使用Cygwin在Windows上运行spark-1.5.1-bin-hadoop2.6发行版(以及具有相同结果的Spark的更新版本)。
当尝试在bin文件夹中执行spark-shell脚本时,我得到以下输出:
错误:无法找到或加载主类org.apache.spark.launcher.Main
我尝试将CLASSPATH设置为lib / spark-assembly-1.5.1-hadoop2.6.0.jar的位置,但无济于事。
(仅供参考:我可以在我的MAC上运行相同的发行版,无需额外的设置步骤)
请协助在Windows上查找Cygwin执行的解决方案。
答案 0 :(得分:4)
我在Windows 10和spark-1.6.0上遇到了与cywin类似的问题。
使用Maven构建(也许你已经过了这一步)
mvn -DskipTests包
确保JAVA_HOME设置为JDK
$ export JAVA_HOME =" C:\ Program Files \ Java \ jdk1.8.0_60"
$ ls" $ JAVA_HOME"
bin包括LICENSE THIRDPARTYLICENSEREADME.txt ....
使用Windows批处理文件。如果您遇到cygwin的终端问题,请从PowerShell或CommandPrompt启动。
$ chmod a + x bin / spark-shell.cmd
$ ./bin/spark-shell.cmd
答案 1 :(得分:0)
我解决这个问题的方法是将Spark安装移动到一个没有空格的路径中。在Program Files
下,我收到了上述错误,但直接在C:\
下移动并运行spark-shell.bat
文件已将其清除。