添加新数据节点 - 在新节点上格式化?

时间:2017-12-20 13:10:39

标签: hadoop hdfs

我已经建立了一个非常简单的Hadoop集群,其中包含3个虚拟机 - 一个充当NameNode,另外两个充当数据节点。我使用format命令创建了HDFS文件系统,一切正常。我可以将文件保存到HDFS系统。

现在我想添加另一个数据节点。我的假设是,当我设置新节点时,将其添加到从属文件中,并且(可能)重新启动HDFS,系统将实现添加新节点,并且将在新节点上分配和格式化磁盘空间使其成为HDFS的一部分。这个假设是否正确?显然,重新格式化整个HDFS是不可取的,因此我假设数据节点可以随时添加"即时#34;。我是正确还是我需要执行其他操作才能使新节点为HDFS提供存储? 谢谢!

1 个答案:

答案 0 :(得分:1)

  

我假设可以添加数据节点"即时#34;。

你的假设是正确的。

HDFS上没有任何内容需要格式化。新数据节点的磁盘应该是并且最好是datanode目录与其他节点相同,但不一定如此。

您不需要重新启动HDFS。 Datanode在其服务运行时使用RPC请求向namenode注册

提示:使用Apache Ambari可以比自己编辑和同步XML更容易安装,配置和管理服务