我有一个由两台主机配置的集群 -
我正在运行的作业似乎正在创建大量日志,而我的一个hdfs datanode显示出严重的健康问题 -
四件事:
答案 0 :(得分:1)
进一步深入了解hdfs -
要获取哪个目录的执行大小:
hadoop fs -du -h /user/
Spark服务日志创建:
Spark标识创建的日志已识别,手动删除且群集恢复正常状态 -
Spark on在HDFS的位置创建日志 -
/user/spark/applicationHistory
日志文件大小为129GB。(已删除)
使用的命令 - (因为-rm将文件移动到废纸篓,我们需要从废纸篓中删除它,以便正确清理)
$ hadoop fs -rm /user/spark/applicationHistory/*
$ hadoop fs -rm -r /user/cloudera/.Trash/Current