在将 Spark 作业提交到 Apache Livy 时,我不知道如何以编程方式传递 SparkSession 参数:
这是测试火花作业:
class Test extends Job[Int]{
override def call(jc: JobContext): Int = {
val spark = jc.sparkSession()
// ...
}
}
这是将此 Spark 作业提交给 Livy 的方式:
val client = new LivyClientBuilder()
.setURI(new URI(livyUrl))
.build()
try {
client.uploadJar(new File(testJarPath)).get()
client.submit(new Test())
} finally {
client.stop(true)
}
如何将以下配置参数传递给 SparkSession?
.config("es.nodes","1localhost")
.config("es.port",9200)
.config("es.nodes.wan.only","true")
.config("es.index.auto.create","true")