我使用pyspark
使用client
以standalone
模式在群集上运行应用程序进行监控。
我想做的就是看日志。
我尝试了两件事:
1)我去了SPARK_HOME中的配置文件(spark-defaults.conf
):
spark.eventLog.dir hdfs:<ip>:<port>/<path to directory/
2)在我的python脚本中设置以下内容:
conf = pyspark.SparkConf()
conf.set("spark.eventLog.dir", 'hdfs:<ip>:<port>/<path to directory/')
sc = pyspark.SparkContext(conf=conf)
这些似乎都不会在文件夹中生成日志。还有什么我可以尝试的吗?
谢谢。这是火花1.3