继续开始辅助名称节点[0.0.0.0]

时间:2014-06-11 18:51:32

标签: hadoop hdfs

我正在尝试按照此指令在伪分布式模式下安装hadoop http://hadoop.apache.org/docs/r2.3.0/hadoop-project-dist/hadoop-common/SingleNodeSetup.html

但我一直在

Starting secondary namenodes [0.0.0.0]
0.0.0.0: starting secondarynamenode, logging to 
/home/ec2-user/hadoop-2.4.0/logs/hadoop-ec2-user-secondarynamenode-ip-x-x-x-x.out

我只是复制粘贴配置(.xml)并使用start-dfs.sh命令。

其他经历过这种情况的人似乎在配置文件中指出了拼写错误,但我看不出有什么不妥。下面是我的配置文件

等/ Hadoop的2.4.0 /芯-site.xml中:

<configuration>
 <property>
     <name>fs.defaultFS</name>
     <value>hdfs://localhost:9000</value>
 </property>
</configuration>

等/ Hadoop的2.4.0 / HDFS-site.xml中:

<configuration>
 <property>
     <name>dfs.replication</name>
     <value>1</value>
 </property>
</configuration>

等/ Hadoop的2.4.0 / mapred-site.xml中:

<configuration>
 <property>
     <name>mapred.job.tracker</name>
     <value>localhost:9001</value>
 </property>
</configuration>

我做错了什么?

1 个答案:

答案 0 :(得分:0)

那么问题是什么,让它启动辅助名称节点。你有任何例外吗?或者HDFS没有启动等任何其他问题?

在core-site.xml中你应该有

<configuration>
   <property>
    <name>fs.default.name</name>
    <value>hdfs://ipaddress:port</value>
  </property>
<property>
  <name>hadoop.tmp.dir</name>
  <value>/home/$user/hdfs/tmp</value>
  <description>A base for other temporary directories.</description>
</property>
</configuration>

有关更多配置详情,请参阅此answer