用于spark的sbt项目,但在上下文中找不到一些包?

时间:2015-08-03 04:06:22

标签: scala apache-spark sbt

我尝试在IDEA Intellj中使用sbt构建一个新项目。

创建项目并添加Dependency库即成功。

build.sbt内容:

name := "spark-hello"

version := "1.0"

scalaVersion := "2.11.6"

libraryDependencies += "org.apache.spark" % "spark-core_2.11" % "1.4.1"

主要代码: enter image description here

如上图所示,红色部分是错误的,我觉得很奇怪,如:

toInt方法应该是内置函数,但是没找到它。

我不知道为什么要解决它。

2 个答案:

答案 0 :(得分:1)

将您的库依赖项更改为:

libraryDependencies += "org.apache.spark" % "spark-core" % "1.4.1"

libraryDependencies += "org.apache.spark" % "spark-core_2.11" % "1.4.1"

答案 1 :(得分:1)

尝试选择File> IntelliJ菜单中的Invalidate Caches / Restart...