是否有任何特定的 Spark Job Server 版本与 Spark 1.6.0 匹配?根据https://github.com/spark-jobserver/spark-jobserver中的版本信息,我看到 SJS 仅适用于 1.6.1,不适用于 1.6.0。我们的 CloudEra 托管 Spark 在 1.6.0 上运行
我通过将 spark home 配置为 1.6.1 来部署 SJS。当我提交作业时,我看到正在生成作业 ID,但我看不到作业结果。有什么输入吗?
是否有任何特定的 Spark Job Server 版本与 Spark 1.6.0 匹配?根据https://github.com/spark-jobserver/spark-jobserver中的版本信息,我看到 SJS 仅适用于 1.6.1,不适用于 1.6.0。我们的 CloudEra 托管 Spark 在 1.6.0 上运行
我通过将 spark home 配置为 1.6.1 来部署 SJS。当我提交作业时,我看到正在生成作业 ID,但我看不到作业结果。有什么输入吗?
不,没有与 spark 1.6.0 相关联的 SJS 版本。但是您应该很容易针对 1.6.0 进行编译。也许你可以修改这个https://github.com/spark-jobserver/spark-jobserver/blob/master/project/Versions.scala#L10并尝试。