如果我在群集中只停用一个只有两个数据节点的datanode,该怎么办?

时间:2014-03-07 04:10:18

标签: hadoop hdfs

我设置了一个hdfs集群,它有一个master(namenode)和两个slave(datanode)

并且dfs.replication设置为“2”

所以每个块都将在两个从站中复制,并且从站中的文件都是相同的。

我的问题是,如果我想要停用两个奴隶中的一个,它总是显示“停止进行中”,但没有文件被复制(通过使用sar来监视网络)

所以我认为如果集群只有两个数据节点,并且复制设置为“2”,我就无法停用任何数据节点,因为如果我停用任何一个节点,那么只剩下一个节点,所以该文件无法复制2。

你这么认为吗?

1 个答案:

答案 0 :(得分:0)

我相信群集中的复制因子为2,如果您停用一个数据节点,那么hadoop将识别为一个数据节点的崩溃,并将继续使用数据节点。但是将来如果你将该节点放回集群中,hadoop将开始将文件复制到该节点。

因此,如果群集中只有一个节点,复制因子为2,则不会妨碍hadoop的工作。