如果我的spark程序在本地或集群模式下运行,我怎么能以编程方式知道?

时间:2017-09-02 17:49:26

标签: scala apache-spark

我想在运行时知道程序是以本地模式(只是一个节点)还是集群(例如yarn-client或yarn-cluster)运行?

2 个答案:

答案 0 :(得分:1)

只需使用master属性:

spark.sparkContext.master: String

答案 1 :(得分:0)

您可以直接致电

spark.sparkContext.isLocal