安装配置单元后,Hadoop(本地和主机目标不匹配)

时间:2013-11-23 10:15:57

标签: ubuntu hadoop

我在运行ubuntu的笔记本电脑上安装了Hadoop 2.2作为单节点集群并运行了字数计数示例。之后我安装了Hive并且Hadoop开始出错,即

hdfs dfs -ls throws IOException : localhost is "utbuntu/127.0.1.1 and destination host is localhost:9000"

我在主持人文件中找到了以下两个条目

127.0.0.1 localhost
127.0.1.1 ubuntu
#and some IPv6 entries...

我的问题是为什么在配置配置单元后出现错误以及解决方案是什么?任何帮助都非常感谢。

谢谢!

2 个答案:

答案 0 :(得分:0)

原始IOException中似乎存在拼写错误“ utbuntu ”。你能检查一下这是正确的主机名还是复制粘贴错误?

etc / hosts配置需要一些试验和错误才能找到Hadoop 2.2.0群集设置,但我所做的是删除主机名的所有127.0.1.1分配并将实际IP分配给机器名称和有用。 e.g。

  

192.168.1.101 ubuntu

我有一个双节点集群,所以我的/ etc / hosts for master(NameNode)看起来像:

127.0.0.1   localhost
#127.0.1.1  myhostname
192.168.1.100   myhostname
192.168.1.100   master

/usr/local/hadoop/etc/hadoop/core-site.xml具有以下内容:

<property>
   <name>fs.default.name</name>
   <value>hdfs://master:9000</value>
 </property>

需要注意的是,我已将myhostname注释掉为127.0.1.1关联。

答案 1 :(得分:0)

我也有这个问题,因为我的机器启动了php-fpm和端口9000,所以我杀了php-fpm,然后重启就可以了。