intellij想法与scala错误:import org.apache.spark。{SparkContext,SparkConf}

时间:2015-06-18 15:11:11

标签: java scala intellij-idea apache-spark sbt

我正在使用带有scala集成的intelli j idea(如eclipse),我创建了一个scala sbt项目,我使用spark 1.4.0和scala 2.11.6,我收到错误: import org.apache.spark。{SparkContext,SparkConf}

文件buid.sbt包含以下代码:

name:=“simple”

版本:=“1.0”

scalaVersion:=“2.11.6”

libraryDependencies + =“org.apache.spark”%“spark-core_2.10”%“1.4.0”

当我使用maven构建java应用程序时我没有问题只是问题是当我尝试使用intellij构建sbt构建scala应用程序时

3 个答案:

答案 0 :(得分:1)

您的scala版本和spark scala版本错误。改变你的火花依赖:

libraryDependencies += "org.apache.spark" %% "spark-core" % "1.4.0"

答案 1 :(得分:0)

你不能在scala版本2.11.6中使用spark-core_2.10。

2.10和2.11不是二进制兼容的。

你可能想要spark-core_2.11

答案 2 :(得分:0)

也许你需要阅读:https://github.com/mpeltonen/sbt-idea。 你需要在config plugins.sbt和build.sbt

之后运行sbt gen-idea