如何使用scala使用sbt的java库?

时间:2015-05-31 08:41:21

标签: java scala apache-spark sbt

所以,我有一个用Scala for Spark编写的项目。当前的sbt文件看起来像这样。

name := "MyProgram"

version := "1.0"

scalaVersion := "2.10.4"

libraryDependencies += "org.apache.spark" %% "spark-core" % "1.1.0"

说,我想使用外部java库,所有这些库都在 lib 目录中。我该如何修改sbt文件以包含这些库?

2 个答案:

答案 0 :(得分:5)

Sbt应自动包含lib文件夹中的所有jar。

在lib文件夹中浮动的依赖关系(而不是在build.sbt文件中声明)称为unmanaged dependencies

答案 1 :(得分:0)

作为非托管依赖项的用例示例(如Dominic所述)在build.sbt中添加这些模式,

unmanagedBase <<= baseDirectory(_ / "./java-libs")

unmanagedClasspath in Compile +=
    file(System.getenv("EXTRA_LIBS_HOME")) / "java-libs/package.jar"