无法正常启动hadoop datanode

时间:2014-03-04 01:52:37

标签: java hadoop

之前我成功启动了datanode,但是当我今天尝试时它会显示以下信息。听起来我没有mkdir / home / hadoop / appdata / hadoopdata目录,但我确认该目录已存在于我的计算机中。所以有什么问题?为什么我无法正常启动datanode?

Ex:我试图删除/ home / hadoop / appdata /和mkdir一个新的,但它仍然无效。

我还删除了/ home / hadoop / tmp / hadoop_tmp和mkdir一个新的,它仍然无效......

2014-03-04 09:30:30,106 WARN org.apache.hadoop.metrics2.impl.MetricsSystemImpl: Source name ugi already exists!

2014-03-04 09:30:30,349 INFO org.apache.hadoop.hdfs.server.common.Storage: Cannot access storage directory /home/hadoop/appdata/hadoopdata

2014-03-04 09:30:30,350 INFO org.apache.hadoop.hdfs.server.common.Storage: Storage directory /home/hadoop/appdata/hadoopdata does not exist

2014-03-04 09:30:30,453 ERROR org.apache.hadoop.hdfs.server.datanode.DataNode: 

java.io.IOException: All specified directories are not accessible or do not exist.

    at org.apache.hadoop.hdfs.server.datanode.DataStorage.recoverTransitionRead(DataStorage.java:139)
    at org.apache.hadoop.hdfs.server.datanode.DataNode.startDataNode(DataNode.java:414)
    at org.apache.hadoop.hdfs.server.datanode.DataNode.<init>(DataNode.java:321)
    at org.apache.hadoop.hdfs.server.datanode.DataNode.makeInstance(DataNode.java:1712)
    at org.apache.hadoop.hdfs.server.datanode.DataNode.instantiateDataNode(DataNode.java:1651)
    at org.apache.hadoop.hdfs.server.datanode.DataNode.createDataNode(DataNode.java:1669)
    at org.apache.hadoop.hdfs.server.datanode.DataNode.secureMain(DataNode.java:1795)

2 个答案:

答案 0 :(得分:0)

  1. 停止所有hadoop服务

  2. 删除dfs / namenode

  3. 从奴隶和主人删除dfs / datanode
  4. 检查Hadoop文件夹的保留:
      

    sudo chmod -R 755 / usr / local / hadoop

  5.   
  6. 重新启动Hadoop
  7.   
  8. 检查/验证文件夹权限。

      

    sudo chmod -R 755 / home / hadoop / appdata

  9. 如果仍有问题,请检查日志文件

答案 1 :(得分:0)

尝试合成您的名字节点 **

use hadoop namenode -format 
or
hdfs namenode -format

** 您将清楚地了解未按预期配置的内容。