Hadoop:两个数据节点,但UI显示一个和Spark:两个工作者UI显示一个

时间:2017-07-25 08:42:10

标签: hadoop apache-spark hdfs webhdfs

我在SO和Quora以及许多网站上看到过很多答案。他们为从属IP配置防火墙时解决了一些问题,有人说这是一个UI故障。我很迷惑 。我有两个数据节点:一个是纯数据节点,另一个是Namenode + datanode。问题是当我<master-ip>:50075它只显示一个数据节点(具有namenode的机器)时。但是我的hdfs dfsadmin -report显示我有两个数据节点,并且在我的主人身上启动了hadoop之后,如果我在jpspure-datanode-machine or slave machine,我可以看到datanode正在运行。 两台机器上的防火墙都关闭了。 sudo ufw status verbose提供Status: inactive响应。同样的场景是火花。 Spark UI将工作节点显示为具有主节点而非纯工作节点的节点。但是工作正在pure-worker-machine上运行。再次,这是一个UI故障还是我错过了什么? hdfs dfsadmin -report

Configured Capacity: 991216451584 (923.14 GB)
Present Capacity: 343650484224 (320.05 GB)
DFS Remaining: 343650418688 (320.05 GB)
DFS Used: 65536 (64 KB)
DFS Used%: 0.00%
Under replicated blocks: 0
Blocks with corrupt replicas: 0
Missing blocks: 0
Missing blocks (with replication factor 1): 0
Pending deletion blocks: 0

-------------------------------------------------
Live datanodes (2):

Name: 10.10.10.105:50010 (ekbana)
Hostname: ekbana
Decommission Status : Normal
Configured Capacity: 24690192384 (22.99 GB)
DFS Used: 32768 (32 KB)
Non DFS Used: 7112691712 (6.62 GB)
DFS Remaining: 16299675648 (15.18 GB)
DFS Used%: 0.00%
DFS Remaining%: 66.02%
Configured Cache Capacity: 0 (0 B)
Cache Used: 0 (0 B)
Cache Remaining: 0 (0 B)
Cache Used%: 100.00%
Cache Remaining%: 0.00%
Xceivers: 1
Last contact: Tue Jul 25 04:27:36 EDT 2017


Name: 110.44.111.147:50010 (saque-slave-ekbana)
Hostname: ekbana
Decommission Status : Normal
Configured Capacity: 966526259200 (900.15 GB)
DFS Used: 32768 (32 KB)
Non DFS Used: 590055215104 (549.53 GB)
DFS Remaining: 327350743040 (304.87 GB)
DFS Used%: 0.00%
DFS Remaining%: 33.87%
Configured Cache Capacity: 0 (0 B)
Cache Used: 0 (0 B)
Cache Remaining: 0 (0 B)
Cache Used%: 100.00%
Cache Remaining%: 0.00%
Xceivers: 1
Last contact: Tue Jul 25 04:27:36 EDT 2017
主节点上的

/etc/hadoop/masters文件

ekbana
主节点上的

/etc/hadoop/slaves文件

ekbana
saque-slave-ekbana
从属节点上的

/etc/hadoop/masters文件

saque-master

注意 :从机上的saque-master和主机上的ekbana映射到同一个IP。 UI也类似于this question's UI

2 个答案:

答案 0 :(得分:2)

因为相同的主机名(ekbana)。 因此,在UI中,它将仅显示同一主机名的一个条目。

如果要确认这一点,只需启动一个不在master中的datanode。你可以在UI中看到相关的条目。

如果您也启动了其他datanode,它将屏蔽同一主机名的第二个条目。

您可以更改主机名并尝试。

答案 1 :(得分:0)

我也面临类似的问题,我无法在dfshealth.html页面上看到datanode信息。我有两个名为master和slave的主机。

etc/hadoop/masters (on master machine)
master
etc/hadoop/slaves
master
slave

etc/hadoop/masters (slave machine)
master
etc/hadoop/slaves
slave

它能够在UI上看到数据节点。