我在运行ubuntu的笔记本电脑上安装了Hadoop 2.2作为单节点集群并运行了字数计数示例。之后我安装了Hive并且Hadoop开始出错,即
hdfs dfs -ls throws IOException : localhost is "utbuntu/127.0.1.1 and destination host is localhost:9000"
我在主持人文件中找到了以下两个条目
127.0.0.1 localhost
127.0.1.1 ubuntu
#and some IPv6 entries...
我的问题是为什么在配置配置单元后出现错误以及解决方案是什么?任何帮助都非常感谢。
谢谢!
答案 0 :(得分:0)
原始IOException中似乎存在拼写错误“ utbuntu ”。你能检查一下这是正确的主机名还是复制粘贴错误?
etc / hosts配置需要一些试验和错误才能找到Hadoop 2.2.0群集设置,但我所做的是删除主机名的所有127.0.1.1分配并将实际IP分配给机器名称和有用。 e.g。
192.168.1.101 ubuntu
我有一个双节点集群,所以我的/ etc / hosts for master(NameNode)看起来像:
127.0.0.1 localhost
#127.0.1.1 myhostname
192.168.1.100 myhostname
192.168.1.100 master
/usr/local/hadoop/etc/hadoop/core-site.xml具有以下内容:
<property>
<name>fs.default.name</name>
<value>hdfs://master:9000</value>
</property>
需要注意的是,我已将myhostname注释掉为127.0.1.1关联。
答案 1 :(得分:0)
我也有这个问题,因为我的机器启动了php-fpm和端口9000,所以我杀了php-fpm,然后重启就可以了。