如何消除hadoop中的连接拒绝错误?

时间:2013-04-17 10:36:37

标签: java hadoop

当我尝试运行hadoop命令时

  

vinit @ ubuntu:〜/ hadoop-1.0.4 $ bin / hadoop dfs -ls

我得到以下内容作为输出。

  

13/04/17 06:26:37 INFO ipc.Client:重试连接到服务器:localhost / 127.0.0.1:9010。已经尝试了0次。   13/04/17 06:26:38 INFO ipc.Client:重试连接到服务器:localhost / 127.0.0.1:9010。已经尝试了1次。   与FS连接不良。命令中止。异常:在连接异常时调用localhost / 127.0.0.1:9010失败:java.net.ConnectException:拒绝连接

我是hadoop甚至Java的新手。请帮忙!

2 个答案:

答案 0 :(得分:0)

检查您的HDFS进程是否正在运行?运行'jps'命令检查正在运行的java进程。

你至少要运行“Namenode”和“Datanode”流程。请检查并告知我们。

干杯 碎布

答案 1 :(得分:0)

我已经挣扎了两天两夜,找出了这个问题的答案。

在我的情况下(我确定这是大多数情况下的问题)必须手动创建hadoop临时文件夹并将它们添加到hdfs-site.xml!

<property>

<name>dfs.data.dir</name>

<value>/home/stefan/Downloads/hadoop-2.7.1/tmp/dfs/name/data</value>

<final>true</final> 

</property> 

<property> 

<name>dfs.name.dir</name>

<value>/home/stefan/Downloads/hadoop-2.7.1/tmp/dfs/name</value> 

<final>true</final> 

</property>

我希望这可以帮助你们不要像我一样经历同样的痛苦。

除此之外

chown user_name hadoop_folder hadoop_temp_folder
chmod 755 hadoop_folder hadoop_temp_folder