我有一个由4个虚拟机(1个主节点和3个从属节点)组成的虚拟hadoop群集,最近向群集中的数据节点增加了100GB的容量。问题在于HDFS无法检测到这种增加。我重新启动了datanode,namenode并格式化了HDFS,但是没有影响。我该如何解决这个问题?
答案 0 :(得分:1)
我正在编写添加datanode /增加hdfs卷大小的步骤:
在根目录中创建一个文件夹,例如/hdfsdata
在home下创建一个文件夹,例如/home/hdfsdata
向“ hdfs”用户提供以下文件夹的权限:chown hdfs:hadoop -R /home/hdfsdata
为此文件夹提供文件/文件夹权限:chmod 777 -R /home/hdfsdata.
安装此新文件夹:mount --bind /home/hdfsdata/ /hdfsdata/
最后,将此新创建的目录添加到hdfs-site.xml中的属性“ dfs.datanode.data.dir”下,并用逗号分隔。
当我CD到/ hadoop / hdfs / data
完成上述步骤后,重新启动HDFS服务,您的容量就会增加。