我试图在我的电脑上使用Ubuntu 12.10设置Hadoop单节点集群。参考tutorial on Michael-noll.com
在执行' /usr/local/hadoop/bin/start-all.sh '命令
之后我执行了java进程状态“ / usr / local / hadoop $ jps ”
然后我发现Data Node
,Task Tracker
,Name Node
未列出(即无效)
任何人都可以帮助解决这种情况。
答案 0 :(得分:1)
重置您的core-site.xml文件
<property>
<name>hadoop.tmp.dir</name>
<value>/home/rlk/hduser</value>
</property>
<property>
<name>fs.default.name</name>
<value>hdfs://localhost/</value>
</property>
答案 1 :(得分:0)
格式化名称节点,然后使用start-all.sh
命令再次启动所有服务,并检查使用jps
的状态。如果退出应用程序而不停止服务,则可能会发生这种情况。因此,在退出应用程序之前,请确保已使用stop-all.sh
停止所有服务。
答案 2 :(得分:0)
好吧,我认为您将Hadoop安装到/usr/local/hadoop
当您运行start-all.sh
时,hadoop会将日志写入/usr/local/hadoop/logs
目录,
但是,Hadoop可能没有对此目录的写入权限。
请检查/usr/local/hadoop/logs/
中的所有日志文件,找出问题所在。
如何解决?
4.1修改/usr/local/hadoop/conf/hadoop-env.sh
,即
添加export HADOOP_LOG_DIR=/tmp/hadoop/logs
4.2再次重启Hadoop和jps,并检查日志文件
如果您再次遇到问题,我建议您在此处发布相关日志。:)
答案 3 :(得分:0)
您应该对core-site.xml
中为属性hadoop.tmp.dir
提及的目录具有写入权限。我已在此链接Hadoop Series Single Node Installation.
答案 4 :(得分:0)
套餐验证
$ rpm ‐ql hadoop-‐0.20-‐conf-‐pseudo
格式化NameNode
sudo ‐u hdfs hdfs namenode-‐format
$
for
service
in
的/ etc / init.d /的hadoop的*
>
do
>
sudo
$service
stop
>
done
启动HDFS
启动HDFS
$
for
service
in
/etc/init.d/hadoop-‐hdfs-‐*
>
do
>
sudo
$service
start
>
done
更改Localhost属性
5.change localhost属性 http://localhost:50070 通过以上步骤,您可以启动namenode和datanode服务。