Hadoop:datanode未连接到localhost上的namenode:50070群集摘要显示0

时间:2014-05-13 07:04:11

标签: hadoop

日志

2014-05-12 16:41:26,773 INFO org.apache.hadoop.ipc.RPC: Server at     namenode/192.168.12.196:10001 not available yet, Zzzzz...
2014-05-12 16:41:28,777 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: namenode/192.168.12.196:10001. Already tried 0 time(s); retry policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1 SECONDS)

核心网站xml ....

<configuration>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/usr/local/hadoop/tmp</value>
        <description>A base for other temporary directories.</description>
    </property>

    <property>
        <name>fs.default.name</name>
        <value>hdfs://user@namenode:10001</value>

    </property>
</configuration>

我放入了etc / hosts

192.168.12.196   namenode

在大师中

user@namenode
奴隶中的

localhost

我的namenode在user@192.168.12.196上 如果我在所有节点上执行jps,它会显示datanode namenode job / tasktracker正常工作

2 个答案:

答案 0 :(得分:0)

你需要将localhost更改为slave和master文件中的namenode,并在它运行正常后重新启动hadoop。

答案 1 :(得分:0)

  

更好的观点

感谢您的评论 如果我将hostname放在namenode的slave中,它会在同一节点上运行datanode和namenode 以下是我的主人和奴隶的配置, 在 namenode的主人

'user@namenode' 
在namenode'master上

hdname1@data1  (data1 belong to ip of node and hdname1 is user)
hdname2@data2
在datanode的主人

user@namenode
datanode的奴隶

hdname1@data1