我使用全新安装的CDH 5.5.2
。在Cloudera Manager
我看到,HDFS
存在严重的健康问题。我在群集中有1 NameNode
和1 DataNode
。
复制不足块
578在群集中的复制块下。总共580个街区 簇。复制块下的百分比:99.66%。危急 门槛:40.00%
我该如何解决这个问题?
更新:Cloudera Manager(CDH 5.0.2) -> HDFS -> Configuration -> View and Edit -> Service-Wide -> Replication -> Replication Factor (dfs.replication) -> 1
在这种情况下不起作用。
答案 0 :(得分:2)
新的复制因子仅影响新文件。更改在shell中运行的现有文件的复制因子(在具有hadoop入口点的节点上)
hadoop fs -setrep -w <replication factor> -R /
但是,只有“hdfs”可以写入/(“hdfs”是超级用户,而不是“root”)。所以,你可能需要使用这个命令:
sudo -u hdfs hadoop fs -setrep -w <replication factor> -R /
答案 1 :(得分:1)
要检查的一些事项:
hadoop fsck /|egrep -v '^\.+$'|grep -i replica
hadoop fs -ls /path/to/file.txt
检查文件的复制因子,然后查看输出中第2列中的数字注意:
请务必将HDFS网关角色添加到要从中运行hadoop
命令的服务器。
另外考虑将cloudera manager升级到5.5.1 - 你的版本是一个非常早期的版本,从那时起他们就做了一些改变。