我在SO和Quora以及许多网站上看到过很多答案。他们为从属IP配置防火墙时解决了一些问题,有人说这是一个UI故障。我很迷惑 。我有两个数据节点:一个是纯数据节点,另一个是Namenode + datanode。问题是当我<master-ip>:50075
它只显示一个数据节点(具有namenode的机器)时。但是我的hdfs dfsadmin -report
显示我有两个数据节点,并且在我的主人身上启动了hadoop之后,如果我在jps
上pure-datanode-machine or slave machine
,我可以看到datanode正在运行。
两台机器上的防火墙都关闭了。 sudo ufw status verbose
提供Status: inactive
响应。同样的场景是火花。 Spark UI将工作节点显示为具有主节点而非纯工作节点的节点。但是工作正在pure-worker-machine
上运行。再次,这是一个UI故障还是我错过了什么?
hdfs dfsadmin -report
Configured Capacity: 991216451584 (923.14 GB)
Present Capacity: 343650484224 (320.05 GB)
DFS Remaining: 343650418688 (320.05 GB)
DFS Used: 65536 (64 KB)
DFS Used%: 0.00%
Under replicated blocks: 0
Blocks with corrupt replicas: 0
Missing blocks: 0
Missing blocks (with replication factor 1): 0
Pending deletion blocks: 0
-------------------------------------------------
Live datanodes (2):
Name: 10.10.10.105:50010 (ekbana)
Hostname: ekbana
Decommission Status : Normal
Configured Capacity: 24690192384 (22.99 GB)
DFS Used: 32768 (32 KB)
Non DFS Used: 7112691712 (6.62 GB)
DFS Remaining: 16299675648 (15.18 GB)
DFS Used%: 0.00%
DFS Remaining%: 66.02%
Configured Cache Capacity: 0 (0 B)
Cache Used: 0 (0 B)
Cache Remaining: 0 (0 B)
Cache Used%: 100.00%
Cache Remaining%: 0.00%
Xceivers: 1
Last contact: Tue Jul 25 04:27:36 EDT 2017
Name: 110.44.111.147:50010 (saque-slave-ekbana)
Hostname: ekbana
Decommission Status : Normal
Configured Capacity: 966526259200 (900.15 GB)
DFS Used: 32768 (32 KB)
Non DFS Used: 590055215104 (549.53 GB)
DFS Remaining: 327350743040 (304.87 GB)
DFS Used%: 0.00%
DFS Remaining%: 33.87%
Configured Cache Capacity: 0 (0 B)
Cache Used: 0 (0 B)
Cache Remaining: 0 (0 B)
Cache Used%: 100.00%
Cache Remaining%: 0.00%
Xceivers: 1
Last contact: Tue Jul 25 04:27:36 EDT 2017
主节点上的 /etc/hadoop/masters
文件
ekbana
主节点上的 /etc/hadoop/slaves
文件
ekbana
saque-slave-ekbana
从属节点上的 /etc/hadoop/masters
文件
saque-master
注意 :从机上的saque-master和主机上的ekbana映射到同一个IP。 UI也类似于this question's UI
答案 0 :(得分:2)
因为相同的主机名(ekbana)。 因此,在UI中,它将仅显示同一主机名的一个条目。
如果要确认这一点,只需启动一个不在master中的datanode。你可以在UI中看到相关的条目。
如果您也启动了其他datanode,它将屏蔽同一主机名的第二个条目。
您可以更改主机名并尝试。
答案 1 :(得分:0)
我也面临类似的问题,我无法在dfshealth.html
页面上看到datanode信息。我有两个名为master和slave的主机。
etc/hadoop/masters (on master machine)
master
etc/hadoop/slaves
master
slave
etc/hadoop/masters (slave machine)
master
etc/hadoop/slaves
slave
它能够在UI上看到数据节点。