当我做rhadoop示例时,发生以下错误。
超出了虚拟内存限制。当前用法:使用121.2 MB的1 GB物理内存; 2.1 GB的2.1 GB虚拟内存使用。杀死容器。
根据要求杀死了容器。退出代码是143
容器以非零退出代码143退出
hadoop流式传输失败,错误代码为1
我该如何解决?
我的hadoop设置。
mapred-site.xml中
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
纱-site.xml中
<configuration>
<!-- Site specific YARN configuration properties -->
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.nodemanager.aux-services.mapreduce_shuffle.class</name>
<value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>
<property>
<name>yarn.nodemanager.local-dirs</name>
<value>/usr/local/hadoop-2.7.3/data/yarn/nm-local-dir</value>
</property>
<property>
<name>yarn.resourcemanager.fs.state-store.uri</name>
<value>/usr/local/hadoop-2.7.3/data/yarn/system/rmstore</value>
</property>
<property>
<name>yarn.resourcemanager.hostname</name>
<value>localhost</value>
</property>
<property>
<name>yarn.web-proxy.address</name>
<value>0.0.0.0:8089</value>
</property>
</configuration>
答案 0 :(得分:7)
在YARN群集上运行Spark应用程序时,我遇到了几乎相同的错误。
“Container [pid = 791,containerID = container_1499942756442_0001_02_000001]正在运行超出虚拟内存限制。当前使用情况:使用135.4 MB的1 GB物理内存; 使用2.1 GB的2.1 GB虚拟内存。杀死容器。强>“
我通过在文件 yarn-site.xml
中禁用虚拟内存检查解决了这个问题<property>
<name>yarn.nodemanager.vmem-check-enabled</name>
<value>false</value>
</property>
这个设置在我的情况下已经足够了。
答案 1 :(得分:1)
我在下面提到了网站。 http://crazyadmins.com/tag/tuning-yarn-to-get-maximum-performance/
然后我知道我可以改变mapreduce的内存分配。
我更改了mapred-site.xml
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
<property>
<name>mapreduce.map.memory.mb</name>
<value>2000</value>
</property>
<property>
<name>mapreduce.reduce.memory.mb</name>
<value>2000</value>
</property>
<property>
<name>mapreduce.map.java.opts</name>
<value>1600</value>
</property>
<property>
<name>mapreduce.reduce.java.opts</name>
<value>1600</value>
</property>
</configuration>