我们有4个节点的Hadoop集群。 2个主节点 2个数据节点 有时我们发现我们的数据节点失败了。然后,我们去看看它总是告诉无法分配内存的日志部分。
ENV
readSong()
获取以下错误
数据节点因以下日志而崩溃
HDP 2.3.6 VERSION
HAWQ 2.0.0 VERSION
linux os : centos 6.0
记忆信息
vm_overcommit ratio为2
os::commit_memory(0x00007fec816ac000, 12288, 0) failed; error='Cannot allocate memory' (errno=12)