我们有12台服务器hadoop集群(CDH),最近,我们想要淘汰其中的三台,但这个过程已经运行了2天多。但它永远不会结束,特别是在过去24小时内,我看到三个数据节点上只有94G数据可用,但在过去的24小时内,大小似乎没有变化。即使通过未复制的块数已经为零。对于hdfs中的所有数据,复制因子为3。
以下是hadoop fsck命令的结果:
总大小:5789534135468 B(打开文件的总大小:94222879072 B) 总目录:42458 文件总数:5494378 总符号链接:0(当前正在编写的文件:133) 总块数(已验证):5506578(平均块大小1051385 B)(总打开文件块(未验证):822) 最小复制块:5506578(100.0%) 过度复制的块:0(0.0%) 未复制的块:0(0.0%) 错误复制的块:0(0.0%) 默认复制因子:3 平均块复制:2.999584 腐败的块:0 缺少副本:0(0.0%) 数据节点数:13 机架数量:1 FSCK于10月17日星期一16:36:09 KST 2016以781094毫秒结束
答案 0 :(得分:1)
您可以尝试在datanode上停止cloudera代理。
sudo service cloudera-scm-agent hard_stop_confirmed
代理停止后,您只需从hdfs实例页
中删除该datanode即可希望这有效