[关于Hadoop的新手问题]
我目前有hadoop 2.7.2的单节点实现。
机器磁盘空间不足:
df -h
给予
Filesystem Size Used Avail Use% Mounted on
/dev/vdb 50G 39G 12G 78% /app
使用率一旦达到80%,群集就会挂起。因此,我应该在计算机上添加更多磁盘。
增加磁盘空间的最佳方法是什么?
方法A:
/dev/vdc
)/hadoop_data
)hdfs-site.xml
以添加指向挂载点的dfs.datanode.data.dir
节点方法A的缺点:
方法B:
/dev/vdc
)/app_new
/edx
和/app_new
之间进行同步方法B的缺点:
什么是“最干净的”选项? 有第三种方法吗?
答案 0 :(得分:0)
遵循方法A。
只需添加更多步骤:
在Datanodes目录中提及目录名称,以便您的集群知道您已添加了新的Datanode目录。
现在,只需运行HDFS balancer命令,然后数据将被均等地转移到两个Datanodes上,并且您的错误将消失。