我正在运行MapReduce管道程序,我已将内存限制设置如下:
<-b>在yarn-site.xml中:<property>
<name>yarn.nodemanager.resource.memory-mb</name>
<value>3072</value>
</property>
<property>
<name>yarn.scheduler.minimum-allocation-mb</name>
<value>256</value>
</property>
在mapred-site.xml中:
<property>
<name>mapreduce.map.memory.mb</name>
<value>512</value>
</property>
<property>
<name>mapreduce.reduce.memory.mb</name>
<value>512</value>
</property>
<property>
<name>mapreduce.map.java.opts</name>
<value>-Xmx384m</value>
</property>
<property>
<name>mapreduce.reduce.java.opts</name>
<value>-Xmx384m</value>
</property>
我目前在伪分布式模式下运行在单个节点上。在容器被杀之前我收到以下错误:
2015-04-11 12:47:49,594 INFO [AsyncDispatcher event handler] org.apache.hadoop.mapreduce.v2.app.job.impl.TaskAttemptImpl: Diagnostics report from attempt_1428741438743_0001_m_000000_0: Container [pid=8140,containerID=container_1428741438743_0001_01_000002] is running beyond virtual memory limits. Current usage: 304.1 MB of 1 GB physical memory used; 1.0 TB of 2.1 GB virtual memory used. Killing container.
我担心的主要问题是使用了1.0 TB的虚拟内存,我运行的应用程序远远没有消耗这么多的内存,它甚至远远没有消耗1 GB的内存。
这是否意味着我的代码中存在内存泄漏,或者我的内存配置是否错误?
谢谢。
此致
答案 0 :(得分:11)
我发现了问题所在:在我的部分代码中,每个映射器都必须访问本地lmdb数据库。当一个lmdb数据库启动时,它会保留1 TB的虚拟内存,这导致Hadoop认为我使用了这么多内存,而事实上我并没有。
我通过在纱线中将 yarn.nodemanager.vmem-check-enabled 设置为 false 解决了这个问题-site.xml,可防止Hadoop检查虚拟内存限制。请注意,除非您确定,否则不应使用它,因为Hadoop试图通过此检查来保护您免受内存泄漏和类似问题的影响。我只使用它,因为我确定它不是内存泄漏