清理纱线容器日志为Spark流媒体应用程序

时间:2018-01-14 06:21:30

标签: apache-spark spark-streaming yarn

我有一个长期运行的Spark流工作,在纱线模式下运行,启用了日志聚合。 每隔几周,流媒体工作就会被#34; RECEIVED SIGNAL TERM"杀死。

仔细观察,我发现由于本地磁盘空间达到90%填充阈值,下面的警报会被解雇。这可能是由于Spark流式传输作业的容器日志造成的。

如何在长时间运行的流媒体作业中清理这些日志,而无需关闭应用程序?是否有一些设置可以启用自动清理?

YARN    NODEMANAGER     NodeManager Health
        CRITICAL 1/1 local-dirs are bad: /mnt/resource/hadoop/yarn/local;
 1/1 log-dirs are bad: /mnt/resource/hadoop/yarn/log

0 个答案:

没有答案