我需要支持同一库的2个不同版本(以支持旧版本),es4hadoop
用于Apache Spark。
6.2.2
(https://mvnrepository.com/artifact/org.elasticsearch/elasticsearch-spark-13_2.10/6.2.2)6.3.2
(https://mvnrepository.com/artifact/org.elasticsearch/elasticsearch-spark-13_2.10/6.3.2)两个版本都具有相同的依赖性(scala-lang和Spark)。
完全不确定该命名,但是我想要类似的东西:
implementation(group: 'org.elasticsearch', name: 'elasticsearch-spark-13_' + scalaVersion, version:'6.2.2') {
exclude group: "org.scala-lang"
}
implementation(group: 'org.elasticsearch', name: 'elasticsearch-spark-13_' + scalaVersion, version:'6.3.2') {
exclude group: "org.scala-lang"
relocate org.elasticsearch org.elasticsearch6 // ???
}
所以我可以在同一项目/ JVM中同时使用新旧Elasticsearch库。
我已经知道可以使用relocate
插件来shadowJar
lib,但是可以重新定位特定版本吗?
答案 0 :(得分:0)
将 elasticsearch-spark
依赖项之一放入子项目 aa2
并重新定位。然后另一个子项目 aa1
可以依赖于 aa2
的影子配置。
// aa2/build.gradle
dependencies {
implementation 'org.elasticsearch:elasticsearch-spark-13_2.10:6.2.2'
}
shadowJar {
relocate "org.elasticsearch", "org.elasticsearch_v6_2_2"
}
// aa1/build.gradle
dependencies {
implementation 'org.elasticsearch:elasticsearch-spark-13_2.10:6.3.2'
implementation project(path: ':aa2', configuration: 'shadow')
}
您现在可以通过这种方式声明同一个类:
package com.github.chehsunliu.stackoverflow.q56332118;
import org.elasticsearch.spark.cfg.SparkSettings;
public class App {
public static void main(String[] args) {
System.out.println(SparkSettings.class);
System.out.println(org.elasticsearch_v6_2_2.spark.cfg.SparkSettings.class);
}
}
然而,你应该更多地关注它们的传递依赖。您可能还需要重新定位它们以使直接依赖项正常工作。有时我会解压输出的 JAR 文件并调查这些 .class
文件以确保解析正确性。