我是Scala和Spark的新手,并开始在Scala IDE(在Eclipse中)编写一个简单的Apache Spark程序。我通常在我的java项目中添加了依赖jar文件到我的项目,但它无法识别它们并给我以下错误消息object apache is not a member of package org
。我应该如何添加依赖jar文件?
我正在添加的jar文件存在于安装了Spark的'lib'目录下。
答案 0 :(得分:2)
对于scala,您使用SBT作为依赖项管理器和代码编译器。
有关如何在此处进行设置的更多信息:
http://www.scala-sbt.org/release/tutorial/Setup.html
但是你的构建文件看起来像这样:
name := "Test"
version := "1.0"
scalaVersion := "2.10.4"
libraryDependencies += "org.apache.spark" %% "spark-sql" % "1.3.0"
libraryDependencies += "org.apache.spark" %% "spark-core" % "1.3.0"