我有一个长期运行的Spark流工作,在纱线模式下运行,启用了日志聚合。 每隔几周,流媒体工作就会被#34; RECEIVED SIGNAL TERM"杀死。
仔细观察,我发现由于本地磁盘空间达到90%填充阈值,下面的警报会被解雇。这可能是由于Spark流式传输作业的容器日志造成的。
如何在长时间运行的流媒体作业中清理这些日志,而无需关闭应用程序?是否有一些设置可以启用自动清理?
YARN NODEMANAGER NodeManager Health
CRITICAL 1/1 local-dirs are bad: /mnt/resource/hadoop/yarn/local;
1/1 log-dirs are bad: /mnt/resource/hadoop/yarn/log