AWS上的Spark HDFS大小?

时间:2015-01-31 07:38:27

标签: apache-spark hdfs

我使用spark-ec2运行了--ebs-vol-size=1000脚本(并附加了1000GB的卷)但是当我运行hadoop dfsadmin -report时只显示:

Configured Capacity: 396251299840 (369.04 GB)

每个节点。如何增加空间或告诉HDFS使用全部容量?

1 个答案:

答案 0 :(得分:0)

运行lsblk并查看卷的安装位置。这可能是vol0。在hdfs-site.xml中,将逗号后的/ vol0添加到dfs.data.dir值到现有默认值。将其复制到所有从站并重新启动群集。你现在应该看到满容量了