我今天安装了一个新的hadoop-2.2.0,我发现hdfs启动后(使用/sbin/start-dfs.sh),namenode和datanode总是在一个随机端口上监听0.0.0.0?我无法在http://hadoop.apache.org/docs/r2.3.0/hadoop-project-dist/hadoop-hdfs/hdfs-default.xml上找到相关配置。
端口不是50070,50470,50090,50010,50020,50075,50475等。它们列在hdfs-default.xml上,它只是一个随机端口。
8369 Jps
8109 DataNode
7936 NameNode
Namenode监听以下内容:
tcp 0 0 0.0.0.0:46628 0.0.0.0:* LISTEN 7936/java <==
tcp 0 0 10.173.130.119:9000 0.0.0.0:* LISTEN 7936/java
tcp 0 0 10.173.130.119:50070 0.0.0.0:* LISTEN 7936/java
Datanode听取以下内容:
tcp 0 0 10.173.130.119:50020 0.0.0.0:* LISTEN 8109/java
tcp 0 0 0.0.0.0:35114 0.0.0.0:* LISTEN 8109/java <==
tcp 0 0 10.173.130.119:50010 0.0.0.0:* LISTEN 8109/java
tcp 0 0 10.173.130.119:50075 0.0.0.0:* LISTEN 8109/java
感谢您的任何建议。
答案 0 :(得分:0)
是每次重新启动namenode或datanode时,它都会分配随机端口。但是如果你观察所有在这种情况下运行在相同进程id上的namenode侦听器(7936)并且Datanode侦听器运行在相同的进程id上,即8109.那么内部进程是相同的。