如何在客户端模式下运行时引导火花日志?

时间:2016-08-04 03:11:05

标签: python apache-spark client pyspark apache-spark-standalone

我使用pyspark使用clientstandalone模式在群集上运行应用程序进行监控。

我想做的就是看日志。

我尝试了两件事:

1)我去了SPARK_HOME中的配置文件(spark-defaults.conf):

spark.eventLog.dir     hdfs:<ip>:<port>/<path to directory/

2)在我的python脚本中设置以下内容:

conf = pyspark.SparkConf()
conf.set("spark.eventLog.dir", 'hdfs:<ip>:<port>/<path to directory/')
sc = pyspark.SparkContext(conf=conf)

这些似乎都不会在文件夹中生成日志。还有什么我可以尝试的吗?

谢谢。这是火花1.3

0 个答案:

没有答案