日志
2014-05-12 16:41:26,773 INFO org.apache.hadoop.ipc.RPC: Server at namenode/192.168.12.196:10001 not available yet, Zzzzz...
2014-05-12 16:41:28,777 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: namenode/192.168.12.196:10001. Already tried 0 time(s); retry policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1 SECONDS)
核心网站xml ....
<configuration>
<property>
<name>hadoop.tmp.dir</name>
<value>/usr/local/hadoop/tmp</value>
<description>A base for other temporary directories.</description>
</property>
<property>
<name>fs.default.name</name>
<value>hdfs://user@namenode:10001</value>
</property>
</configuration>
我放入了etc / hosts
192.168.12.196 namenode
在大师中
user@namenode
奴隶中的
localhost
我的namenode在user@192.168.12.196上 如果我在所有节点上执行jps,它会显示datanode namenode job / tasktracker正常工作
答案 0 :(得分:0)
你需要将localhost更改为slave和master文件中的namenode,并在它运行正常后重新启动hadoop。
答案 1 :(得分:0)
更好的观点
感谢您的评论 如果我将hostname放在namenode的slave中,它会在同一节点上运行datanode和namenode 以下是我的主人和奴隶的配置, 在 namenode的主人
'user@namenode'
在namenode'master上
hdname1@data1 (data1 belong to ip of node and hdname1 is user)
hdname2@data2
在datanode的主人 上
datanode的奴隶user@namenode
hdname1@data1