我正在构建一个可以与1.0版,1.1版,1.2版Apache Spark一起使用的实用程序库。
由于它们都是二进制向后兼容的,我想让用户决定使用哪个spark版本(通过手动添加spark-core
首选版本作为依赖项和我的库),以及不要在库的POM中施加任何版本限制。否则,它会使依赖性驱逐警告的用户烦恼。
是否可以在不更改任何编译行为的情况下使sbt在已发布的POM中省略库依赖项?
答案 0 :(得分:5)
是的,provided
配置是专门为此设计的:
libraryDependencies += "org" %% "artifact" % "1.0" % "provided"
将在编译期间将所述库放在类路径上,但不会放在POM文件中。
答案 1 :(得分:5)
以下是我使用sjrd帮助编写的sbt设置。
import scala.xml.{Node => XmlNode, NodeSeq => XmlNodeSeq, _}
import scala.xml.transform.{RewriteRule, RuleTransformer}
pomPostProcess := { (node: XmlNode) =>
new RuleTransformer(new RewriteRule {
override def transform(node: XmlNode): XmlNodeSeq = node match {
case e: Elem if e.label == "dependency" && e.child.exists(child => child.label == "scope" && child.text == "provided") =>
val organization = e.child.filter(_.label == "groupId").flatMap(_.text).mkString
val artifact = e.child.filter(_.label == "artifactId").flatMap(_.text).mkString
val version = e.child.filter(_.label == "version").flatMap(_.text).mkString
Comment(s"provided dependency $organization#$artifact;$version has been omitted")
case _ => node
}
}).transform(node).head
}