Spark - 错误:无法找到或加载主类org.apache.spark.launcher.Main

时间:2016-03-31 22:15:48

标签: apache-spark pyspark

我刚刚开始玩Spark,我已经在努力了。我刚刚下载了Spark的spark-1.6.1-bin-hadoop2.4并试图打开PySpark Shell ./bin/pyspark,但遗憾的是我提示如下:

Error: Could not find or load main class org.apache.spark.launcher.Main

环境:

  • Ubuntu 14.04.4 64位
  • Java版“1.8.0_77”
  • Python 2.7.6
  • Spark 1.6.1 Hadoop 2.4及更高版本的预构建

有关如何解决此问题的任何线索?

适用于Hadoop 2.4及更高版本的Spark 1.2.0预构建

1 个答案:

答案 0 :(得分:0)

请检查机器上是否安装了java 并检查lib目录下的所有jar文件是否正常工作