我正在尝试在CentOS 6.5上设置一个hadoop伪分布式cluser。我使用的Hadoop版本是0.20。我也使用Apache Pig版本0.12.1。
我修改了以下配置文件:
芯的site.xml
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:8020</value>
</property>
HDFS-site.xml中
<configuration>
<property>
<name>fs.default.name</name>
<value>1</value>
</property>
<property>
<name>dfs.permissions</name>
<value>false</value>
</property>
</configuration>
mapred-site.xml中
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>127.0.0.1:8021</value>
</property>
</configuration>
因此,在配置了相应的文件后,我发出了命令hadoop namenode -format
as
以及sh start-all.sh
。但是,运行jps
命令后,我看到namenode,secondaryname和datanode都运行,但只是很短的时间。查看日志文件,我看到了:
2014-11-28 20:32:59,434 ERROR org.apache.hadoop.hdfs.server.namenode.NameNode: java.io.IOException: Call to /0.0.0.1:8020 failed on local exception: java.net.SocketException: Invalid argument
at org.apache.hadoop.ipc.Client.wrapException(Client.java:775)
我将如何解决此问题?
答案 0 :(得分:0)
您可能会发现需要使用本机的主机名而不是localhost或127.0.0.1。
答案 1 :(得分:0)
您应该使用适当的端口
指定您的namenode <name>fs.default.name</name>
<value>hdfs://localhost:9000</value>