如何在Spark作业中管理打印输出?

时间:2018-05-18 17:51:35

标签: apache-spark pyspark stdout

我想在我的Spark应用程序中查看print语句的输出,它使用Python / PySpark。我是否认为这些输出不被认为是记录的一部分?我将conf/log4j.properties文件更改为输出到特定文件,但只将INFO和其他日志写入指定的日志文件。

如何将print语句的输出定向到文件?我是否必须执行这样的典型重定向:/usr/bin/spark-submit --master yarn --deploy-mode client --queue default /home/hadoop/app.py > /home/hadoop/output

0 个答案:

没有答案