将我们的小型Cloudera Hadoop集群升级到CDH 5后,删除文件不再释放可用的存储空间。即使我们删除的数据多于我们添加的数据,文件系统也会不断填满。
我们在物理专用硬件上运行四节点群集,总存储容量约为110 TB。 4月3日,我们将CDH软件从5.0.0-beta2版本升级到5.0.0-1版本。
我们之前习惯以纯文本格式将日志数据放在hdfs上,速率约为700 GB /天。在4月1日,我们改为将数据导入为.gz文件,这将每日摄取率降低到大约130 GB。
由于我们只想保留一定年龄的数据,因此每晚都要删除过时的文件。以前的结果在hdfs容量监控图表中清晰可见,但不能再看到了。
我们导入的数据比每天删除的数据少570 GB,人们可能会认为容量会下降。但是,自集群软件升级以来,我们报告的hdfs使用率一直在不断增长。
运行hdfs hadoop fs -du -h /
会得到以下输出:
0 /system
1.3 T /tmp
24.3 T /user
考虑到导入文件的大小,这与我们期望看到的一致。使用复制因子3,这应该对应于大约76.8 TB的物理磁盘使用率。
当改为运行hdfs dfsadmin -report
时,结果会有所不同:
Configured Capacity: 125179101388800 (113.85 TB)
Present Capacity: 119134820995005 (108.35 TB)
DFS Remaining: 10020134191104 (9.11 TB)
DFS Used: 109114686803901 (99.24 TB)
DFS Used%: 91.59%
Under replicated blocks: 0
Blocks with corrupt replicas: 0
Missing blocks: 0
此处,DFS Used报告为99.24 TB,这是我们在监控图表中看到的。所有这些数据都来自哪里?
我们怀疑的第一件事是垃圾的自动清空无效,但情况似乎并非如此。只有最近删除的文件在垃圾箱中,并且它们会在一天后自动消失。
我们的问题看起来非常类似于执行hdfs元数据升级但未完成的情况。我不认为在这些版本之间进行升级时需要这样做,但仍然执行了两个步骤“以防万一”。
在本地文件系统中的DN存储卷上,“previous / finalized”下有很多数据。我对hdsf的实现细节知之甚少,知道这是否重要,但它可能表明最终确定的内容不同步。
我们很快就会耗尽集群上的磁盘空间,所以非常感谢任何帮助。
答案 0 :(得分:12)
我在我们的群集上发现了类似的问题,这可能源于升级失败。
首先确保在namenode上完成升级
hdfs dfsadmin -finalizeUpgrade
我发现由于某种原因,数据节点根本没有最终确定其目录。
在您的datanode上,您应该看到以下目录布局
/[mountpoint}/dfs/dn/current/{blockpool}/current
和
/[mountpoint}/dfs/dn/current/{blockpool}/previous
如果您尚未最终确定上一个目录包含更新前创建的所有数据。如果你删除任何东西它将不会删除它 - 因此你的存储永远不会减少。
实际上最简单的解决方案就足够了
重新启动namenode
观察datanode的日志,您应该看到类似这样的内容
INFO org.apache.hadoop.hdfs.server.common.Storage: Finalizing upgrade for storage directory
之后,目录将在后台清除,并回收存储。