Gradle 5的多个依赖版本

时间:2019-05-27 20:26:44

标签: java gradle gradle-shadow-plugin

我需要支持同一库的2个不同版本(以支持旧版本),es4hadoop用于Apache Spark。

两个版本都具有相同的依赖性(scala-lang和Spark)。

完全不确定该命名,但是我想要类似的东西:

implementation(group: 'org.elasticsearch', name: 'elasticsearch-spark-13_' + scalaVersion, version:'6.2.2') {
     exclude group: "org.scala-lang"  
}

implementation(group: 'org.elasticsearch', name: 'elasticsearch-spark-13_' + scalaVersion, version:'6.3.2') {
     exclude group: "org.scala-lang"
     relocate org.elasticsearch org.elasticsearch6 // ???
}

所以我可以在同一项目/ JVM中同时使用新旧Elasticsearch库。

我已经知道可以使用relocate插件来shadowJar lib,但是可以重新定位特定版本吗?

1 个答案:

答案 0 :(得分:0)

elasticsearch-spark 依赖项之一放入子项目 aa2 并重新定位。然后另一个子项目 aa1 可以依赖于 aa2 的影子配置。

// aa2/build.gradle
dependencies {
    implementation 'org.elasticsearch:elasticsearch-spark-13_2.10:6.2.2'
}

shadowJar {
    relocate "org.elasticsearch", "org.elasticsearch_v6_2_2"
}
// aa1/build.gradle
dependencies {
    implementation 'org.elasticsearch:elasticsearch-spark-13_2.10:6.3.2'
    implementation project(path: ':aa2', configuration: 'shadow')
}

您现在可以通过这种方式声明同一个类:

package com.github.chehsunliu.stackoverflow.q56332118;

import org.elasticsearch.spark.cfg.SparkSettings;

public class App {
  public static void main(String[] args) {
    System.out.println(SparkSettings.class);
    System.out.println(org.elasticsearch_v6_2_2.spark.cfg.SparkSettings.class);
  }
}

然而,你应该更多地关注它们的传递依赖。您可能还需要重新定位它们以使直接依赖项正常工作。有时我会解压输出的 JAR 文件并调查这些 .class 文件以确保解析正确性。

参考文献