Hadoop:如何正确停用集群上的节点?

时间:2019-05-30 02:14:43

标签: hadoop mapreduce hdfs yarn openstack

我一直在尝试通过遵循此解决方案change number of data nodes in Hadoop和此有用的文章Commissioning and Decommissioning of Datanode in Hadoop Cluster

现在,我可以看到在HDFS上我已经成功停用了一个节点: HDFS screenshot

我已经在我的hdfs-site.xml hdfs.xml screenshot和yarn-site.xml yarn-site.xml screenshot中设置了一个排除文件属性,其中包括要停用的节点的IP地址。就像这样:excludes file

我还完成了节点命令的刷新。

最后,我运行hadoop dfsadmin –report,可以看到该节点实际上已经退役:nodes report

但是,在MapReduce集群指标上,我发现有5个活动节点,并且在此处已停用节点中未标识在HDFS上已停用的节点

请参阅:hadoop cluster metrics

那是为什么?

1 个答案:

答案 0 :(得分:0)

当我在排除文件上更改主机名时,该问题已解决。节点名称不应包含端口号