es4hadoop
对于 Apache Spark ,我需要支持同一库的 2 个不同版本(以支持旧版本) 。
- 版本
6.2.2
(https://mvnrepository.com/artifact/org.elasticsearch/elasticsearch-spark-13_2.10/6.2.2) - 版本
6.3.2
(https://mvnrepository.com/artifact/org.elasticsearch/elasticsearch-spark-13_2.10/6.3.2)
两个版本具有相同的依赖项(scala-lang 和 Spark)。
完全不确定它的命名,但我想要类似的东西:
implementation(group: 'org.elasticsearch', name: 'elasticsearch-spark-13_' + scalaVersion, version:'6.2.2') {
exclude group: "org.scala-lang"
}
implementation(group: 'org.elasticsearch', name: 'elasticsearch-spark-13_' + scalaVersion, version:'6.3.2') {
exclude group: "org.scala-lang"
relocate org.elasticsearch org.elasticsearch6 // ???
}
所以我可以在同一个项目/JVM中使用新旧弹性搜索库。
我已经知道可以relocate
使用插件进行库shadowJar
,但是可以重新定位特定版本吗?