我正在使用带有scala集成的intelli j idea(如eclipse),我创建了一个scala sbt项目,我使用spark 1.4.0和scala 2.11.6,我收到错误: import org.apache.spark。{SparkContext,SparkConf}
文件buid.sbt包含以下代码:
name:=“simple”
版本:=“1.0”
scalaVersion:=“2.11.6”
libraryDependencies + =“org.apache.spark”%“spark-core_2.10”%“1.4.0”
当我使用maven构建java应用程序时我没有问题只是问题是当我尝试使用intellij构建sbt构建scala应用程序时
答案 0 :(得分:1)
您的scala版本和spark scala版本错误。改变你的火花依赖:
libraryDependencies += "org.apache.spark" %% "spark-core" % "1.4.0"
答案 1 :(得分:0)
你不能在scala版本2.11.6中使用spark-core_2.10。
2.10和2.11不是二进制兼容的。
你可能想要spark-core_2.11
答案 2 :(得分:0)
也许你需要阅读:https://github.com/mpeltonen/sbt-idea。 你需要在config plugins.sbt和build.sbt
之后运行sbt gen-idea