通过rdd.pipe重定向日志

时间:2018-06-30 07:53:45

标签: python apache-spark pipe rdd

我没有使用PySpark。 我正在使用scala运行我的spark应用程序。 我通过调用RDD.pipe在spark应用程序中执行python脚本。 我希望能够从python脚本中记录某些内容,并在执行程序日志中查看记录的信息。 我没有使用PySpark。 我正在通过API RDD.pipe在Spark应用程序中执行Python脚本。

我想通过某种方式使用户能够通过在Python脚本级别打印一些消息来调试脚本,并使这些Python脚本在Spark记录器级别可用。

我该怎么做?

0 个答案:

没有答案