我试图在我的scala应用程序中使用spark。
这是我依赖的火花依赖:
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-core_2.10</artifactId>
<version>1.0.0</version>
</dependency>
然后在我的代码中
import org.apache.spark.SparkConf
val sparkConf = new SparkConf()
我的eclipse IDE中没有错误,但代码构建(mvn package exec:java
)失败,出现以下错误:
error: class file needed by SparkConf is missing.
[ERROR] reference type Cloneable of package scala refers to nonexisting symbol.
[ERROR] val sparkConf = new SparkConf()
[ERROR] ^
[ERROR] one error found
我该如何处理?
答案 0 :(得分:1)
就像@massag提到的那样,这是一个Scala版本不匹配:
spark-core_2.10正在使用scala 2.10.x