Hadoop start-dfs.sh失败

时间:2014-08-10 09:35:47

标签: hadoop ulimit

我是Hadoop的新用户,我按照instruction

配置群集

配置完成后,我用/bin/start-dfs.sh

启动HDFS守护进程

我检查日志文件/home/deploy/hadoop/libexec/../logs/hadoop-deploy-datanode-slave1.out以确保运行,但我只看到如下文字:

ulimit -a for user deploy
core file size          (blocks, -c) 0
data seg size           (kbytes, -d) unlimited
scheduling priority             (-e) 0
file size               (blocks, -f) unlimited
pending signals                 (-i) 63524
max locked memory       (kbytes, -l) 64
max memory size         (kbytes, -m) unlimited
open files                      (-n) 4096
pipe size            (512 bytes, -p) 8
POSIX message queues     (bytes, -q) 819200
real-time priority              (-r) 0
stack size              (kbytes, -s) 8192
cpu time               (seconds, -t) unlimited
max user processes              (-u) 16384
virtual memory          (kbytes, -v) unlimited
file locks                      (-x) unlimited

希望有人可以提供帮助吗?

1 个答案:

答案 0 :(得分:1)

@Minh,您正在查看/home/deploy/hadoop/libexec/../logs/hadoop-deploy-datanode-slave1.out,而不是/home/deploy/hadoop/libexec/../logs/hadoop-deploy-datanode-slave1.log。 同样,/home/deploy/hadoop/libexec/../logs/文件夹中还有其他日志文件。

让我解释一下.log和.out文件的更多信息。

logs文件夹中的某些文件以.log结尾,而其他文件以.out结尾。 .out文件仅在守护进程启动时写入。 守护进程成功启动后,.out文件将被截断。 通过对比,可以在.log文件中找到所有日志消息,包括发送到.out文件的守护程序启动消息。