spark - 构建时的scala init错误

时间:2014-06-19 09:31:33

标签: scala apache-spark scala-ide

我试图在我的scala应用程序中使用spark。

这是我依赖的火花依赖:

<dependency>
      <groupId>org.apache.spark</groupId>
      <artifactId>spark-core_2.10</artifactId>
      <version>1.0.0</version>
    </dependency>

然后在我的代码中

import org.apache.spark.SparkConf
val sparkConf = new SparkConf()

我的eclipse IDE中没有错误,但代码构建(mvn package exec:java)失败,出现以下错误:

error: class file needed by SparkConf is missing.
[ERROR] reference type Cloneable of package scala refers to nonexisting symbol.
[ERROR] val sparkConf = new SparkConf()
[ERROR]                     ^
[ERROR] one error found

我该如何处理?

1 个答案:

答案 0 :(得分:1)

就像@massag提到的那样,这是一个Scala版本不匹配:

spark-core_2.10正在使用scala 2.10.x