我在linux上安装了 hadoop 1.2.1 ,并进行了单节点群集配置。运行正常,jps
命令显示所有5个作业的信息
现在,当我使用命令bin/start-all.sh
启动hadoop时,hadoop启动所有5个作业,但在几秒钟内,namenode自行关闭。
任何想法如何解决这个问题?
我检查了namenode日志文件,它显示以下错误:
ERROR org.apache.hadoop.hdfs.server.namenode.NameNode: java.io.IOException: Edit log corruption detected: corruption length = 98362 > toleration length = 0; the corruption is intolerable.
答案 0 :(得分:1)
这已被多次询问并回答,使用异常消息进行搜索会得到结果
在Stackoverflow中提问之前,请检查前面右上角搜索选项提出的同类问题
来到问题陈述,
这很可能是由于您的namenode存储编辑日志并检查点数据的hadoop.tmp.dir
每次重新启动计算机后,tmp
文件夹将被许多服务清除,这些服务在尝试再次通过namenode访问时会导致问题。
因此重新启动后只有长度为0
在core-site.xml
中将属性hadoop.tmp.dir
目录更改为其他目录
参考是:here
希望它有所帮助!