我是Hadoop的新用户,我按照instruction
配置群集配置完成后,我用/bin/start-dfs.sh
我检查日志文件/home/deploy/hadoop/libexec/../logs/hadoop-deploy-datanode-slave1.out
以确保运行,但我只看到如下文字:
ulimit -a for user deploy
core file size (blocks, -c) 0
data seg size (kbytes, -d) unlimited
scheduling priority (-e) 0
file size (blocks, -f) unlimited
pending signals (-i) 63524
max locked memory (kbytes, -l) 64
max memory size (kbytes, -m) unlimited
open files (-n) 4096
pipe size (512 bytes, -p) 8
POSIX message queues (bytes, -q) 819200
real-time priority (-r) 0
stack size (kbytes, -s) 8192
cpu time (seconds, -t) unlimited
max user processes (-u) 16384
virtual memory (kbytes, -v) unlimited
file locks (-x) unlimited
希望有人可以提供帮助吗?
答案 0 :(得分:1)
@Minh,您正在查看/home/deploy/hadoop/libexec/../logs/hadoop-deploy-datanode-slave1.out
,而不是/home/deploy/hadoop/libexec/../logs/hadoop-deploy-datanode-slave1.log
。
同样,/home/deploy/hadoop/libexec/../logs/
文件夹中还有其他日志文件。
让我解释一下.log和.out文件的更多信息。
logs文件夹中的某些文件以.log结尾,而其他文件以.out结尾。 .out文件仅在守护进程启动时写入。 守护进程成功启动后,.out文件将被截断。 通过对比,可以在.log文件中找到所有日志消息,包括发送到.out文件的守护程序启动消息。