服务器上的数据节点容量太低

时间:2016-04-29 08:03:23

标签: hadoop hdfs

我正在使用hadoop的hortonworks发行版并安装了ambari。

我已将它安装在服务器上,因此没有任何空间限制。

然而,我的datanode只有991 MB的空间,这是非常低的。

可能的原因是什么?我该如何解决?

1 个答案:

答案 0 :(得分:0)

您可以从Linux终端尝试df -g以确认您有足够的空间。

登录Amabari UI - > HDFS标签 - > config,搜索属性dfs.datanode.du.reserved 此属性定义了不会用于Hadoop的保留空间。