您好我尝试在ubuntu上安装hadoop(单节点)。 我无法打开localhost:50070。
当我午餐时,我得到了这个
6674 NodeManager
6825 Jps
6359 ResourceManager
我是ubuntu的新手,所以尽可能多地解释一下,非常感谢。
daniele@daniele-S551LB:/usr/local/hadoop-2.6.0/sbin$ ./start-dfs.sh
Starting namenodes on [localhost]
daniele@localhost's password:
localhost: starting namenode, logging to /usr/local/hadoop-2.6.0/logs/hadoop-daniele-namenode-daniele-S551LB.out
daniele@localhost's password:
localhost: starting datanode, logging to /usr/local/hadoop-2.6.0/logs/hadoop-daniele-datanode-daniele-S551LB.out
Starting secondary namenodes [0.0.0.0]
daniele@0.0.0.0's password:
0.0.0.0: starting secondarynamenode, logging to /usr/local/hadoop-2.6.0/logs/hadoop-daniele-secondarynamenode-daniele-S551LB.out
daniele@daniele-S551LB:/usr/local/hadoop-2.6.0/sbin$ jps
2935 Jps
daniele@daniele-S551LB:/usr/local/hadoop-2.6.0/sbin$ ./start-all.sh
This script is Deprecated. Instead use start-dfs.sh and start-yarn.sh
Starting namenodes on [localhost]
daniele@localhost's password:
localhost: starting namenode, logging to /usr/local/hadoop-2.6.0/logs/hadoop-daniele-namenode-daniele-S551LB.out
daniele@localhost's password:
localhost: starting datanode, logging to /usr/local/hadoop-2.6.0/logs/hadoop-daniele-datanode-daniele-S551LB.out
Starting secondary namenodes [0.0.0.0]
daniele@0.0.0.0's password:
0.0.0.0: starting secondarynamenode, logging to /usr/local/hadoop-2.6.0/logs/hadoop-daniele-secondarynamenode-daniele-S551LB.out
starting yarn daemons
starting resourcemanager, logging to /usr/local/hadoop-2.6.0/logs/yarn-daniele-resourcemanager-daniele-S551LB.out
daniele@localhost's password:
localhost: starting nodemanager, logging to /usr/local/hadoop-2.6.0/logs/yarn-daniele-nodemanager-daniele-S551LB.out
daniele@daniele-S551LB:/usr/local/hadoop-2.6.0/sbin$ jps
3931 Jps
3846 NodeManager
3529 ResourceManager
答案 0 :(得分:1)
如果tmp目录处于一致状态,请检查日志
日志文件位置:$ HADOOP_HOME / logs / hadoop - * - namenode - **。log
您可能会在日志文件中看到一些内容
2016-12-10 00:59:55,718 ERROR org.apache.hadoop.hdfs.server.namenode.NameNode:无法启动namenode。 org.apache.hadoop.hdfs.server.common.InconsistentFSStateException:目录/ tmp / dfs / name处于不一致状态:存储目录不存在或无法访问。
在core-site.xml中声明tmp目录,然后格式化namenode。
我希望它会帮助你
答案 1 :(得分:0)
检查netstat以查看端口是否接受连接 - netstat -tunlp | grep 50070
你的namenode在哪里运行(只能看到YARN服务)..没有HDFS服务在这里运行..
要启动HDFS服务,请运行commnad - start-dfs.sh
当你做jps时,你应该找到以下过程
14370 SecondaryNameNode
14020 NameNode
14661 NodeManager
14151 DataNode
15003 Jps
14526 ResourceManager
答案 2 :(得分:0)
@daniele,运行所有hadoop服务,如果它没有运行 -
$ start-all.sh 或
$ start-dfs.sh 和 $ start-yarn.sh
Hadoop需要服务器来运行服务。您正在使用Ubuntu桌面版。请确保已安装并运行apache服务器。 您也可以使用其他服务器来实现此目的。
安装apache服务器 - $ sudo apt-get install apache2
检查apache服务器的状态 - $ sudo service httpd status
检查服务器是否正常工作的其他方法。 使用以下命令检查系统IP: $ ifconfig
并在您的Window / MAC浏览器上粘贴相同的IP。如果它工作正常,您将获得服务器信息,如果它不起作用,您将连接失败或未知主机错误。
解决问题的步骤:
如果您没有任何服务器,请安装服务器并确保其正常运行并启用。
禁用防火墙: $ sudo ufw disable 或您只需允许端口: $ sudo ufw allow 50070
重新创建HDFS:
$ sudo rm -r location_of_HDFS
$ sudo mkdir location_of_HDFS
$ sudo chown hadoop_username location_of_HDFS
格式化namenode:
$ hadoop namenode -format
启动hadoop服务:
$ start-all.sh 或
$ start-dfs.sh 和 $ start-yarn.sh
希望这会有所帮助。感谢
答案 3 :(得分:-1)
您已停止所有服务。并且您已重新启动namenode服务。最后启动所有服务。
bin/stop-all.sh
bin/hadoop namenode -format
bin/start-all.sh
如果您已执行,请将其命名为namenode。