PySpark从独立集群中的执行程序进行日志记录

时间:2018-03-29 08:44:33

标签: apache-spark pyspark log4j rdd

This问题的答案与如何在YARN群集上执行此操作有关。但是,如果我运行一个独立的火花簇呢?如何从执行程序登录?使用我们可以从spark-context派生的log4j记录器,可以轻松地从驱动程序进行记录。

但是如何从RDD foreachforeachPartition中进行记录?有什么办法可以收集这些日志并打印出来吗?

0 个答案:

没有答案