通过Eclipse使用Spark SQL程序时,我遇到了以下问题。
代码行
name := "SparkXXSql"
version := "1.0"
scalaVersion := "2.11.8"
libraryDependencies += "org.apache.spark" %% "spark-core_2.11" % "2.0.0" % "provided"
libraryDependencies += "org.apache.spark" %% "spark-sql_2.11" % "2.0.0" % "provided"
resolvers += Resolver.mavenLocal
给出:
object sql不是包org.apache.spark
的成员
sbt档案详情
{{1}}
答案 0 :(得分:1)
如果它不是拼写错误,则会发生这种情况,因为您的依赖关系实际上并未解决。当您添加%%时,scala版本会自动附加到模块,因此您实际上正在解析spark-core_2.11_2.11和spark-sql_2.11_2.11。尝试删除%%或显式_2.11并重新加载依赖项。