Hadoop:超越虚拟内存限制,显示大量数据

时间:2015-04-11 10:14:43

标签: hadoop memory memory-leaks virtual-memory

我正在运行MapReduce管道程序,我已将内存限制设置如下:

<-b>在yarn-site.xml中:

<property>
            <name>yarn.nodemanager.resource.memory-mb</name>
            <value>3072</value>
</property>
<property>
            <name>yarn.scheduler.minimum-allocation-mb</name>
            <value>256</value>
</property>

在mapred-site.xml中:

<property>
            <name>mapreduce.map.memory.mb</name>
            <value>512</value>
</property>
<property>
            <name>mapreduce.reduce.memory.mb</name>
            <value>512</value>
</property>
<property>
            <name>mapreduce.map.java.opts</name>
            <value>-Xmx384m</value>
</property>
<property>
            <name>mapreduce.reduce.java.opts</name>
            <value>-Xmx384m</value>
</property>

我目前在伪分布式模式下运行在单个节点上。在容器被杀之前我收到以下错误:

2015-04-11 12:47:49,594 INFO [AsyncDispatcher event handler] org.apache.hadoop.mapreduce.v2.app.job.impl.TaskAttemptImpl: Diagnostics report from attempt_1428741438743_0001_m_000000_0: Container [pid=8140,containerID=container_1428741438743_0001_01_000002] is running beyond virtual memory limits. Current usage: 304.1 MB of 1 GB physical memory used; 1.0 TB of 2.1 GB virtual memory used. Killing container.

我担心的主要问题是使用了1.0 TB的虚拟内存,我运行的应用程序远远没有消耗这么多的内存,它甚至远远没有消耗1 GB的内存。

这是否意味着我的代码中存在内存泄漏,或者我的内存配置是否错误?

谢谢。

此致

1 个答案:

答案 0 :(得分:11)

我发现了问题所在:在我的部分代码中,每个映射器都必须访问本地lmdb数据库。当一个lmdb数据库启动时,它会保留1 TB的虚拟内存,这导致Hadoop认为我使用了这么多内存,而事实上我并没有。

我通过在纱线中将 yarn.nodemanager.vmem-check-enabled 设置为 false 解决了这个问题-site.xml,可防止Hadoop检查虚拟内存限制。请注意,除非您确定,否则不应使用它,因为Hadoop试图通过此检查来保护您免受内存泄漏和类似问题的影响。我只使用它,因为我确定它不是内存泄漏