我在启动hadoop时遇到错误:
2015-09-04 08:49:05,648 ERROR org.apache.hadoop.hdfs.server.common.Storage:看来另一个节点854 @ ip-1-2-3-4已经锁定存储目录:/ mnt / xvdb / tmp / dfs / namesecondary java.nio.channels.OverlappingFileLockException 在org.apache.hadoop.hdfs.server.common.Storage $ StorageDirectory.tryLock(Storage.java:712) 在org.apache.hadoop.hdfs.server.common.Storage $ StorageDirectory.lock(Storage.java:678) 在org.apache.hadoop.hdfs.server.common.Storage $ StorageDirectory.analyzeStorage(Storage.java:499) at org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode $ CheckpointStorage.recoverCreate(SecondaryNameNode.java:962) at org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode.initialize(SecondaryNameNode.java:243) 在org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode。(SecondaryNameNode.java:192) at org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode.main(SecondaryNameNode.java:671) 2015-09-04 08:49:05,650 INFO org.apache.hadoop.hdfs.server.common.Storage:无法锁定存储/ mnt / xvdb / tmp / dfs / namesecondary。该目录已被锁定 2015-09-04 08:49:05,650 FATAL org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode:无法启动辅助名称节点 java.io.IOException:无法锁定storage / mnt / xvdb / tmp / dfs / namesecondary。该目录已被锁定 在org.apache.hadoop.hdfs.server.common.Storage $ StorageDirectory.lock(Storage.java:683) 在org.apache.hadoop.hdfs.server.common.Storage $ StorageDirectory.analyzeStorage(Storage.java:499) at org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode $ CheckpointStorage.recoverCreate(SecondaryNameNode.java:962) at org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode.initialize(SecondaryNameNode.java:243) 在org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode。(SecondaryNameNode.java:192) at org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode.main(SecondaryNameNode.java:671) 2015-09-04 08:49:05,652 INFO org.apache.hadoop.util.ExitUtil:退出状态1 2015-09-04 08:49:05,653 INFO org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode:SHUTDOWN_MSG: / ******************* *********** SHUTDOWN_MSG:在ip- @ ip-1-2-3-4 / @ ip-1-2-3-4关闭SecondaryNameNode ************************************************** ********** /
Hadoop版本:2.7.1(3节点集群)
hdfs-site.xml配置文件:
<configuration>
<property>
<name>dfs.data.dir</name>
<value>/mnt/xvdb/hadoop/dfs/data</value>
<final>true</final>
</property>
<property>
<name>dfs.name.dir</name>
<value>/mnt/xvdb/hadoop/dfs/name</value>
<final>true</final>
</property>
<property>
<name>dfs.replication</name>
<value>3</value>
</property>
</configuration>
我也尝试过格式化名称节点,但它没有帮助。任何人都可以帮我这个吗?
答案 0 :(得分:1)
我在这里找到了解决上述问题的方法:http://misconfigurations.blogspot.in/2014/10/hadoop-initialization-failed-for-block.html
如果还有其他解决方案,请查看。
P.S:我删除了&#34; dfs.datanode.data.dir&#34;指出的目录。它已经删除了HDFS上的所有数据,但帮助我解决了这个问题。因此,您可以使用其他方法(如果有)来解决此问题。