HDFS未检测到数据节点容量增加

时间:2018-06-23 08:18:14

标签: hadoop hdfs

我有一个由4个虚拟机(1个主节点和3个从属节点)组成的虚拟hadoop群集,最近向群集中的数据节点增加了100GB的容量。问题在于HDFS无法检测到这种增加。我重新启动了datanode,namenode并格式化了HDFS,但是没有影响。我该如何解决这个问题?

1 个答案:

答案 0 :(得分:1)

我正在编写添加datanode /增加hdfs卷大小的步骤:

  • 在根目录中创建一个文件夹,例如/hdfsdata

  • 在home下创建一个文件夹,例如/home/hdfsdata

  • 向“ hdfs”用户提供以下文件夹的权限:chown hdfs:hadoop -R /home/hdfsdata

  • 为此文件夹提供文件/文件夹权限:chmod 777 -R /home/hdfsdata.

  • 安装此新文件夹:mount --bind /home/hdfsdata/ /hdfsdata/

  • 最后,将此新创建的目录添加到hdfs-site.xml中的属性“ dfs.datanode.data.dir”下,并用逗号分隔。

当我CD到/ hadoop / hdfs / data

完成上述步骤后,重新启动HDFS服务,您的容量就会增加。