我是Spark的新手,需要帮助解决错误:
java.lang.NoClassDefFoundError: org/apache/spark/rdd/RDD$
我正在Scala中创建一个独立的Spark示例。我运行了sbt clean package
和sbt assembly
来打包scala spark代码。两者都成功完成没有任何错误。 RDD上的任何操作都会引发错误。任何解决这个问题的指针都会非常有用。
我使用spark-submit
命令调用作业。
$SPARK_HOME/bin/spark-submit --class org.apache.spark.examples.GroupTest /Users/../spark_workspace/spark/examples/target/scala-2.10/spark-examples_2.10-1.3.0-SNAPSHOT.jar
答案 0 :(得分:0)
我设法抛出此错误并通过它。这绝对是一个YMMV答案,但我把它留在这里,以防它最终帮助某人。
就我而言,我在mac上运行自制软件安装spark(1.2.0)和mahout(0.11.0)。这对我来说非常困惑,因为如果我手动运行mahout命令行,我没有得到错误,但如果我从一些python代码中调用它,则会抛出错误。
我意识到我已经在我的个人资料中更新了我的SPARK_HOME变量,而不是使用1.4.1,并在我的副手终端中重新获得了它。我运行python代码的终端仍在使用1.2.0。我在我的python终端中重新获取了我的个人资料,现在它“正常工作”。
整个事情感觉非常黑,如果我猜测抛出这个错误的一些理性原因,也许是因为一个移动部分假设一个不同的火花版本,架构,不管你有什么。这似乎也是评论中暗示的解决方案。