对象spark不是包org的成员

时间:2015-11-26 18:53:37

标签: scala apache-spark sbt scala-ide

在Eclipse Scala-IDE中导入以下内容时

import org.apache.spark.SparkContext
import org.apache.spark.SparkContext._

我收到此错误: Object spark is not a member of package org

我安装了sbt-0.13.9.msi

我还应该做些什么?

build.sbt

name := "scala-spark-app"

version := "1.0"

scalaVersion := "2.10.4"

libraryDependencies += "org.apache.spark" %% "spark-core" % "1.5.2"

1 个答案:

答案 0 :(得分:3)

我在IntelliJ上收到了相同的编译错误(在我的Mac上),而sbt compile已成功执行。以下步骤解决了我的问题:

  1. sbt clean
  2. sbt gen-idea(重建IntelliJ项目文件)
  3. 退出并重新启动IntelliJ
  4. 我希望这会有所帮助。