我们想设置aws
代码中将通过以下方式完成的参数SparkContext
:
sc.hadoopConfiguration.set("fs.s3a.access.key", vault.user)
sc.hadoopConfiguration.set("fs.s3a.secret.key", vault.key)
但是,我们有一个自定义 Spark 启动器框架,它需要通过命令行--conf
参数完成所有自定义 Spark 配置。spark-submit
有没有办法“通知” SparkContext 将--conf
值设置为 thehadoopConfiguration
而不是它的 general SparkConf
?寻找类似的东西
spark-submit --conf hadoop.fs.s3a.access.key $vault.user --conf hadoop.fs.s3a.access.key $vault.key
或者
spark-submit --conf hadoopConfiguration.fs.s3a.access.key $vault.user --conf hadoopConfiguration.fs.s3a.access.key $vault.key