在下面的示例中,saturn是主节点,pluto是从节点。
hadoop@saturn:~$ start-dfs.sh
16/02/22 15:51:34 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
Starting namenodes on [saturn]
hadoop@saturn's password:
saturn: starting namenode, logging to /usr/local/hadoop/logs/hadoop-hadoop-namenode-saturn.out
hadoop@saturn's password: pluto: starting datanode, logging to /usr/local/hadoop/logs/hadoop-hadoop-datanode-pluto.out
在最后一条指令被绞死。
我很困惑为什么会这样发生。
更新:早些时候我在usr / local / hadoop / slaves文件中都有土星和pluto但是当我把它改成pluto时它才运行。但是现在datanode没有在slave / pluto节点中启动。
根据@running的要求:
/usr/local/hadoop/logs/hadoop-hadoop-datanode-pluto.out的日志
ulimit -a for user hadoop 核心文件大小(块,-c)0 数据seg大小(kbytes,-d)无限制 调度优先级(-e)0 文件大小(块,-f)无限制 待处理信号(-i)15838 最大锁定内存(kbytes,-l)64 最大内存大小(千字节,-m)无限制 打开文件(-n)1024 管道大小(512字节,-p)8 POSIX消息队列(字节,-q)819200 实时优先级(-r)0 堆栈大小(千字节,-s)8192 cpu时间(秒,-t)无限制 最大用户进程(-u)15838 虚拟内存(kbytes,-v)无限制 文件锁(-x)无限
/usr/local/hadoop/logs/hadoop-hadoop-namenode-saturn.out
的日志ulimit -a for user hadoop 核心文件大小(块,-c)0 数据seg大小(kbytes,-d)无限制 调度优先级(-e)0 文件大小(块,-f)无限制 待处理信号(-i)1031371 最大锁定内存(kbytes,-l)64 最大内存大小(千字节,-m)无限制 打开文件(-n)1024 管道大小(512字节,-p)8 POSIX消息队列(字节,-q)819200 实时优先级(-r)0 堆栈大小(千字节,-s)8192 cpu时间(秒,-t)无限制 最大用户进程(-u)1031371 虚拟内存(kbytes,-v)无限制 文件锁(-x)无限
(我很抱歉格式化)
答案 0 :(得分:0)
之所以发生这种情况,是因为这两个文件没有所需的写入权限。 所以我做了chown和chmod到/ usr / local /并且它有效。