如何从命令行检查Spark配置?

时间:2016-06-01 10:48:27

标签: linux scala hadoop apache-spark

基本上,我想通过命令行检查Spark配置的属性,例如“spark.local.dir”,即不编写程序。有没有办法做到这一点?

5 个答案:

答案 0 :(得分:3)

没有从命令行查看spark配置属性的选项。

您可以在spark-default.conf文件中查看它。另一种选择是从webUI查看。

http://driverIP:4040处的应用程序Web UI在“环境”选项卡中列出了Spark属性。仅显示通过spark-defaults.conf,SparkConf或命令行显式指定的值。对于所有其他配置属性,您可以假设使用默认值。

有关详细信息,请参阅Spark Configuration

答案 1 :(得分:1)

基于http://spark.apache.org/docs/latest/configuration.html。 Spark提供三个位置来配置系统:

  • Spark属性控制大多数应用程序参数,可以设置 通过使用SparkConf对象,或通过Java系统属性。
  • 环境变量可用于设置每台机器设置,例如IP地址,通过每个机器上的conf / spark-env.sh脚本 节点。

  • 可以通过log4j.properties配置日志记录。

我还没有通过命令行听说过方法。

答案 2 :(得分:1)

我们可以使用以下命令检入Spark shell:

scala> spark.conf.get("spark.sql.shuffle.partitions")
res33: String = 200

答案 3 :(得分:0)

以下命令在控制台上打印conf属性

 sc.getConf.toDebugString

答案 4 :(得分:0)

从 CLI 检查 spark 配置的主命令

sc._conf.getAll()