所以,我有一个用Scala for Spark编写的项目。当前的sbt文件看起来像这样。
name := "MyProgram"
version := "1.0"
scalaVersion := "2.10.4"
libraryDependencies += "org.apache.spark" %% "spark-core" % "1.1.0"
说,我想使用外部java库,所有这些库都在 lib 目录中。我该如何修改sbt文件以包含这些库?
答案 0 :(得分:5)
Sbt应自动包含lib文件夹中的所有jar。
在lib文件夹中浮动的依赖关系(而不是在build.sbt文件中声明)称为unmanaged dependencies
答案 1 :(得分:0)
作为非托管依赖项的用例示例(如Dominic所述)在build.sbt
中添加这些模式,
unmanagedBase <<= baseDirectory(_ / "./java-libs")
unmanagedClasspath in Compile +=
file(System.getenv("EXTRA_LIBS_HOME")) / "java-libs/package.jar"