无法打开hadoop localhost:50070

时间:2015-10-24 10:31:35

标签: ubuntu hadoop localhost

您好我尝试在ubuntu上安装hadoop(单节点)。 我无法打开localhost:50070。

当我午餐时,我得到了这个

6674 NodeManager
6825 Jps
6359 ResourceManager

我是ubuntu的新手,所以尽可能多地解释一下,非常感谢。

daniele@daniele-S551LB:/usr/local/hadoop-2.6.0/sbin$ ./start-dfs.sh
Starting namenodes on [localhost]
daniele@localhost's password: 
localhost: starting namenode, logging to /usr/local/hadoop-2.6.0/logs/hadoop-daniele-namenode-daniele-S551LB.out
daniele@localhost's password: 
localhost: starting datanode, logging to /usr/local/hadoop-2.6.0/logs/hadoop-daniele-datanode-daniele-S551LB.out
Starting secondary namenodes [0.0.0.0]
daniele@0.0.0.0's password: 
0.0.0.0: starting secondarynamenode, logging to /usr/local/hadoop-2.6.0/logs/hadoop-daniele-secondarynamenode-daniele-S551LB.out
daniele@daniele-S551LB:/usr/local/hadoop-2.6.0/sbin$ jps
2935 Jps
daniele@daniele-S551LB:/usr/local/hadoop-2.6.0/sbin$ ./start-all.sh
This script is Deprecated. Instead use start-dfs.sh and start-yarn.sh
Starting namenodes on [localhost]
daniele@localhost's password: 
localhost: starting namenode, logging to /usr/local/hadoop-2.6.0/logs/hadoop-daniele-namenode-daniele-S551LB.out
daniele@localhost's password: 
localhost: starting datanode, logging to /usr/local/hadoop-2.6.0/logs/hadoop-daniele-datanode-daniele-S551LB.out
Starting secondary namenodes [0.0.0.0]
daniele@0.0.0.0's password: 
0.0.0.0: starting secondarynamenode, logging to /usr/local/hadoop-2.6.0/logs/hadoop-daniele-secondarynamenode-daniele-S551LB.out
starting yarn daemons
starting resourcemanager, logging to /usr/local/hadoop-2.6.0/logs/yarn-daniele-resourcemanager-daniele-S551LB.out
daniele@localhost's password: 
localhost: starting nodemanager, logging to /usr/local/hadoop-2.6.0/logs/yarn-daniele-nodemanager-daniele-S551LB.out
daniele@daniele-S551LB:/usr/local/hadoop-2.6.0/sbin$ jps
3931 Jps
3846 NodeManager
3529 ResourceManager

4 个答案:

答案 0 :(得分:1)

如果tmp目录处于一致状态,请检查日志

日志文件位置:$ HADOOP_HOME / logs / hadoop - * - namenode - **。log

您可能会在日志文件中看到一些内容

2016-12-10 00:59:55,718 ERROR org.apache.hadoop.hdfs.server.namenode.NameNode:无法启动namenode。 org.apache.hadoop.hdfs.server.common.InconsistentFSStateException:目录/ tmp / dfs / name处于不一致状态:存储目录不存在或无法访问。

在core-site.xml中声明tmp目录,然后格式化namenode。

我希望它会帮助你

答案 1 :(得分:0)

检查netstat以查看端口是否接受连接 - netstat -tunlp | grep 50070

你的namenode在哪里运行(只能看到YARN服务)..没有HDFS服务在这里运行..

要启动HDFS服务,请运行commnad - start-dfs.sh

当你做jps时,你应该找到以下过程

14370 SecondaryNameNode

14020 NameNode

14661 NodeManager

14151 DataNode

15003 Jps

14526 ResourceManager

答案 2 :(得分:0)

@daniele,运行所有hadoop服务,如果它没有运行 -

$ start-all.sh

$ start-dfs.sh $ start-yarn.sh

Hadoop需要服务器来运行服务。您正在使用Ubuntu桌面版。请确保已安装并运行apache服务器。 您也可以使用其他服务器来实现此目的。

安装apache服务器 - $ sudo apt-get install apache2

检查apache服务器的状态 - $ sudo service httpd status

检查服务器是否正常工作的其他方法。  使用以下命令检查系统IP:      $ ifconfig

并在您的Window / MAC浏览器上粘贴相同的IP。如果它工作正常,您将获得服务器信息,如果它不起作用,您将连接失败或未知主机错误。

解决问题的步骤:

  1. 如果您没有任何服务器,请安装服务器并确保其正常运行并启用。

  2. 禁用防火墙: $ sudo ufw disable 或您只需允许端口: $ sudo ufw allow 50070

  3. 重新创建HDFS:

    $ sudo rm -r location_of_HDFS

    $ sudo mkdir location_of_HDFS

    $ sudo chown hadoop_username location_of_HDFS

  4. 格式化namenode:

    $ hadoop namenode -format

  5. 启动hadoop服务:

    $ start-all.sh

    $ start-dfs.sh $ start-yarn.sh

  6. 希望这会有所帮助。感谢

答案 3 :(得分:-1)

您已停止所有服务。并且您已重新启动namenode服务。最后启动所有服务。

bin/stop-all.sh
bin/hadoop namenode -format 
bin/start-all.sh

如果您已执行,请将其命名为namenode。