Spark中的Hadoop配置

时间:2018-01-22 12:20:05

标签: scala hadoop apache-spark

我需要在 Spark 作业中掌握当前的Hadoop org.apache.hadoop.conf.Configuration,以便进行调试。具体来说,我需要org.apache.hadoop.fs.FileSystem获取org.apache.hadoop.fs.Path#getFileSystem(conf: Configuration)方法

的路径

鉴于org.apache.spark.SparkContext,有没有办法获得Configuration

1 个答案:

答案 0 :(得分:2)

您可以按照以下代码设置配置

sc.hadoopConfiguration.set("my.mapreduce.setting","someValue")