我正在使用 sbt 程序集插件来创建一个胖 jar。我需要一些 jars,它们是默认 hadoop/spark 的一部分,但具有较新的版本。
我希望 spark worker jvm 更喜欢与我的 fat jar 文件一起打包的版本,而不是默认的 hadoop/spark 发行版。我怎样才能做到这一点?
我正在使用 sbt 程序集插件来创建一个胖 jar。我需要一些 jars,它们是默认 hadoop/spark 的一部分,但具有较新的版本。
我希望 spark worker jvm 更喜欢与我的 fat jar 文件一起打包的版本,而不是默认的 hadoop/spark 发行版。我怎样才能做到这一点?