我们希望通过aws
设置代码中的SparkContext
参数:
sc.hadoopConfiguration.set("fs.s3a.access.key", vault.user)
sc.hadoopConfiguration.set("fs.s3a.secret.key", vault.key)
但是我们有一个自定义Spark启动器框架,它需要通过--conf
命令行的spark-submit
参数完成所有自定义Spark配置。
有没有办法“通知”SparkContext将--conf
值设置为hadoopConfiguration
而不是普通SparkConf
?
spark-submit --conf hadoop.fs.s3a.access.key $vault.user --conf hadoop.fs.s3a.access.key $vault.key
或
spark-submit --conf hadoopConfiguration.fs.s3a.access.key $vault.user --conf hadoopConfiguration.fs.s3a.access.key $vault.key
答案 0 :(得分:17)
您需要在命令行(或spark.hadoop.
对象)中使用SparkConf
为Hadoop配置添加前缀。例如:
spark.hadoop.fs.s3a.access.key=value