我正在尝试按照此指令在伪分布式模式下安装hadoop http://hadoop.apache.org/docs/r2.3.0/hadoop-project-dist/hadoop-common/SingleNodeSetup.html
但我一直在
Starting secondary namenodes [0.0.0.0]
0.0.0.0: starting secondarynamenode, logging to
/home/ec2-user/hadoop-2.4.0/logs/hadoop-ec2-user-secondarynamenode-ip-x-x-x-x.out
我只是复制粘贴配置(.xml)并使用start-dfs.sh命令。
其他经历过这种情况的人似乎在配置文件中指出了拼写错误,但我看不出有什么不妥。下面是我的配置文件
等/ Hadoop的2.4.0 /芯-site.xml中:
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://localhost:9000</value>
</property>
</configuration>
等/ Hadoop的2.4.0 / HDFS-site.xml中:
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
等/ Hadoop的2.4.0 / mapred-site.xml中:
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>localhost:9001</value>
</property>
</configuration>
我做错了什么?
答案 0 :(得分:0)
那么问题是什么,让它启动辅助名称节点。你有任何例外吗?或者HDFS没有启动等任何其他问题?
在core-site.xml中你应该有
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://ipaddress:port</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/$user/hdfs/tmp</value>
<description>A base for other temporary directories.</description>
</property>
</configuration>
有关更多配置详情,请参阅此answer。