stop-all.sh
start-all.sh
之后,NameNode无法启动。我尝试hadoop namenode -format
和hadoop-daemon.sh
启动namenode然后一切正常。但是我的数据在HDFS中丢失了。
我不希望数据丢失。这个结果,hadoop namenode -format
命令不希望我的路径找到解决方案。如何使用start-all.sh
启动NameNode? p>
由于
答案 0 :(得分:1)
首先,不推荐使用stop-all.sh
start-all.sh
。使用start-dfs.sh
和start-yarn.sh
代替start-all.sh
。与stop-all.sh
相同(已经说明了)
其次,hadoop namenode -format
格式化您的HDFS,因此在安装时应该只使用一次。
默认情况下,Hadoop将hadoop.tmp.dir
的属性设置为/tmp
中的目录,每次重新启动后都会删除文件。将hadoop.tmp.dir
属性设置在$HADOOP_HOME/conf/hadoop/core-site.xml
中,放置到通常不会删除文件的位置。运行hadoop namenode -format
(实际上它是hdfs namenode -format
,这个也被弃用。)最后一次并启动守护进程。
PS:如果您可以发布日志文件或错误的终端屏幕截图,那么它将更容易为您提供帮助。
答案 1 :(得分:0)
hadoop.temp.dir
temp =应该是" tmp" => hadoop.tmp.dir
我只错过" e"。