使用 Druid Tranquility 运行 spark 作业时出现以下错误。
java.lang.NoSuchFieldError: WRITE_DURATIONS_AS_TIMESTAMPS
Druid Tranquility 使用的 jackson-databind (2.6.1) 版本比 spark 捆绑的版本更高。我正在使用 Druid Tranquility(0.6.4) 和 Spark(1.5.2) 的最新稳定版本。
如何解决这个问题?
- 强制 spark 使用作业提供的类,而不是 spark 中捆绑的类。如何?
- 用新版本的jackson-databind编译spark
- 强制宁静使用旧版本。(似乎不起作用,试图在 sbt 中排除)
- 还有什么办法吗?