0

我正在尝试在hadoop上实现jcuda代码,它在本地模式下工作,但是当我在hadoop集群上运行作业时,它给了我一个错误:容器被杀死这里是具体的错误报告:

16/04/29 10:18:07 INFO mapreduce.Job:任务 ID:尝试_1461835313661_0014_r_000009_2,状态:容器失败 [pid=19894,containerID=container_1461835313661_0014_01_000021] 正在超出虚拟内存限制。当前使用情况:已使用 1 GB 物理内存中的 197.5 MB;使用了 20.9 GB 的 2.1 GB 虚拟内存。杀死容器。

输入数据只有200MB,但工作要求20.9GB虚拟内存我不知道为什么。我试图增加虚拟内存,配置在yarn-site.xml中:

<property>
   <name>yarn.nodemanager.vmem-pmem-ration</name>
   <value>12</value>
</property>

 <property>
    <name>yarn.nodemanager.pmem-check-enabled</name>
    <value>false</value>
 </property>

 <property>
    <name>yarn.nodemanager.vmem-check-enabled</name>
    <value>false</value>
 </property>

它不起作用,我不知道如何解决它,我为我糟糕的英语感到抱歉。

4

1 回答 1

0
    Please check the following parameters and set it if not set to the values below:

    In mapred-site.xml:

    mapreduce.map.memory.mb: 4096

    mapreduce.reduce.memory.mb: 8192

    mapreduce.map.java.opts: -Xmx3072m

    mapreduce.reduce.java.opts: -Xmx6144m

Hope this solves your issue
于 2016-04-29T06:46:34.257 回答