如何获取所有Spark配置以及默认配置?

时间:2019-09-05 14:38:12

标签: scala apache-spark

我正在开发一个项目,我需要为其收集所有Spark配置。 问题是,如果未显式设置参数,则需要默认值。有没有办法获取所有配置,包括所有默认值?

我尝试过:

  • sc.getConf.getAll,但是以这种方式,我没有得到默认值。
  • SparkListener,以便获取某些特定信息(例如,执行者的数量),但我找不到一种方法来获取其他所需信息,例如每个执行者的内核数,每个执行者的内存等...

0 个答案:

没有答案