假设我运行pyspark
命令并获得类型为spark
的全局变量SparkSession
。据我了解,这个spark
与Spark主人保持着联系。我可以打印出这个连接的详细信息,包括这个Spark master的主机名吗?
答案 0 :(得分:2)
有关基本信息,您可以使用master
属性:
spark.sparkContext.master
要了解有关YARN的详细信息,您可能需要深入了解hadoopConfiguration
:
hadoopConfiguration = spark.sparkContext._jsc.hadoopConfiguration()
hadoopConfiguration.get("yarn.resourcemanager.hostname")
或
hadoopConfiguration.get("yarn.resourcemanager.address")
当提交给YARN时,Spark使用Hadoop配置来确定资源管理器,因此这些值应与HADOOP_CONF_DIR
或YARN_CONF_DIR
中的配置中的值匹配。