start-dfs.sh抛出端口22:连接超时错误

时间:2019-06-23 01:13:32

标签: ubuntu hadoop hdfs openssh

我正在尝试在伪分布式环境中的ubuntu上安装hadoop。

start-dfs.sh(给我一个错误)

在[10.1.37.12]上启动名称节点

10.1.37.00:ssh:连接到主机10.1.37.12端口22:连接超时

localhost:启动datanode,登录到/usr/local/hadoop/logs/hadoop-superuser-datanode-superuser-Satellite-E45W-C.out

启动辅助名称节点[0.0.0.0]

0.0.0.0:启动secondarynamenode,登录到/usr/local/hadoop/logs/hadoop-superuser-secondarynamenode-superuser-Satellite-E45W-C.out

我已将端口22添加到防火墙

jps输出:

2562 DataNode

3846 Jps

2743 SecondaryNameNode

有人可以帮我理解吗,这是怎么了?

  • 导出HADOOP_SSH_OPTS =“-p 22”'-完成
  • 将端口22添加到firewal(“ sudo ufw allow 22”)
  • 尝试停止防火墙(“ sudo ufw disable”)
  • 运行ssh -vvv 10.1.37.12并共享输出

    OpenSSH_7.9p1 Ubuntu-10,OpenSSL 1.1.1b 2019年2月26日 debug1:读取配置数据/ etc / ssh / ssh_config debug1:/ etc / ssh / ssh_config第19行:为*应用选项 debug2:resolve_canonicalize:主机名10.1.37.12是地址 debug2:ssh_connect_direct debug1:连接到10.1.37.12 [10.1.37.12]端口22。 debug1:连接到地址10.1.37.12端口22:连接超时 ssh:连接到主机10.1.37.12端口22:连接超时

1 个答案:

答案 0 :(得分:0)

请检查您的/etc/hosts文件,您需要提及私有IP地址(在子网范围内)。必须在 worker 文件enter image description here

中更新相同内容