启动守护程序以使用Hadoop时出错

时间:2014-11-26 01:33:47

标签: java hadoop

我已经在我的ubuntu上安装了hadoop,但问题是每次我开始使用它时,我不能使用它直到我格式化我的namenode?可能是什么问题?请建议我这个。 我在JDK版本1.8.0_25

上使用Hadoop 1.2.1版

3 个答案:

答案 0 :(得分:0)

请问你为什么要使用这样一个旧版本的Hadoop? 2.5.2是当前的稳定版本。这也是全新安装的hadoop?如果是,请运行以下命令格式化namenode。

bin/hadoop namenode -format

这将格式化您的namenode。它将擦除HDFS(Hadoop分布式文件系统)中的所有数据,但不会擦除本地文件系统。你应该只需要这样做一次,除非你的namenode由于某种原因而被破坏。

您可以从以下网站获取最新版本的hadoop: http://mirror.ox.ac.uk/sites/rsync.apache.org/hadoop/common/

更多信息可能会有所帮助,也许是显示错误的屏幕截图。

答案 1 :(得分:0)

  1. 停止所有hadoop服务。
  2. 删除你的tmp文件夹(包含datanode和namenode),然后格式化你的名字节点。

    hadoop namenode -format
    
  3. 然后启动hadoop服务。

答案 2 :(得分:0)

我认为,你已经提到hadoop.tmp.dir属性为tmp目录,所以当你关闭它需要namenode格式的pc时。在这种情况下,在var目录/var/hdfs中创建目录hdfs并通过

提供权限
sudo chown -R username /var/hdfs

去hadoop / conf 打开hdfs-site.xml并编辑此属性。

 <property>
   <name>hadoop.tmp.dir</name>
   <value>/var/hdfs</value>
 </property>

一次,格式化namenode

bin/hadoop namenode -format

start.all.sh

在此之后,System永远不会想要namenode格式。 如果不行,请告诉我。