使用scala版本交叉编译的jar文件:Spark

时间:2016-12-07 10:21:27

标签: apache-spark scala-ide

我无法使用scala ide运行我的第一个简单的spark程序。

我检查了所有属性,我相信这是正确的。

这是具有属性的link

任何帮助?

1 个答案:

答案 0 :(得分:3)

问题是你试图在你的应用程序中包含Scala 2.11.8作为依赖项,而Spark工件依赖于Scala 2.10。

您有两种方法可以解决您的问题:

  • 使用Scala 2.10.x
  • 使用依赖于Scala 2.11的Spark工件(例如spark-core_2.11而不是spark-core_2.10)