Hortonworks HDFS名称节点启动时尝试锁定问题

时间:2018-11-14 20:36:03

标签: java hadoop hdfs hortonworks-data-platform namenode

我们正在使用HDP HDFS模块2.7.3.2.6.5.0-292。

服务器卡住了,必须进行硬重置-现在,名称节点服务在启动时引发错误。

成功获取锁定文件后,即使再次尝试获取相同的进程(可能是同一线程),它也会立即尝试再次获取失败–失败。

我们应该如何使用完整的数据来启动名称节点

18/11/14 20:19:24 INFO util.GSet: Computing capacity for map NameNodeRetryCache 18/11/14 20:19:24 INFO util.GSet: VM type = 64-bit 18/11/14 20:19:24 INFO util.GSet: 0.029999999329447746% max memory 1011.3 MB = 310.7 KB 18/11/14 20:19:25 INFO util.GSet: capacity = 2^15 = 32768 entries 18/11/14 20:19:25 INFO common.Storage: Lock on /mnt/pd1/hadoop/hdfs/namenode/in_use.lock acquired by nodename 10635@hadoop-327 18/11/14 20:19:25 ERROR common.Storage: It appears that another node 10635@hadoop-327 has already locked the storage directory: /mnt/pd1/hadoop/hdfs/namenode java.nio.channels.OverlappingFileLockException at sun.nio.ch.SharedFileLockTable.checkList(FileLockTable.java:255) at sun.nio.ch.SharedFileLockTable.add(FileLockTable.java:152) at sun.nio.ch.FileChannelImpl.tryLock(FileChannelImpl.java:1113) at java.nio.channels.FileChannel.tryLock(FileChannel.java:1155) at org.apache.hadoop.hdfs.server.common.Storage$StorageDirectory.tryLock(Storage.java:770) at org.apache.hadoop.hdfs.server.common.Storage$StorageDirectory.lock(Storage.java:738) at org.apache.hadoop.hdfs.server.common.Storage$StorageDirectory.analyzeStorage(Storage.java:551) at org.apache.hadoop.hdfs.server.common.Storage$StorageDirectory.analyzeStorage(Storage.java:502)

1 个答案:

答案 0 :(得分:0)

因此,看来我们有2个路径指向dfs.namenode.name.dir上的同一目录,这导致了双重锁定。一旦我们使用了一条路径,一切都会恢复原状。