我使用spark-ec2
运行了--ebs-vol-size=1000
脚本(并附加了1000GB的卷)但是当我运行hadoop dfsadmin -report
时只显示:
Configured Capacity: 396251299840 (369.04 GB)
每个节点。如何增加空间或告诉HDFS使用全部容量?
答案 0 :(得分:0)
运行lsblk并查看卷的安装位置。这可能是vol0。在hdfs-site.xml中,将逗号后的/ vol0添加到dfs.data.dir值到现有默认值。将其复制到所有从站并重新启动群集。你现在应该看到满容量了