hadoop中的Corenlp:java.lang.OutOfMemoryError:超出了GC开销限制

时间:2015-08-05 05:38:09

标签: java hadoop garbage-collection nlp stanford-nlp

我正在尝试在hadoop中运行corenlp并获取java.lang.OutOfMemoryError:超出GC开销限制。

我试图增加堆大小但没有结果。这是我的hadoo_env.sh文件中的编辑

export HADOOP_HEAPSIZE=20000
HADOOP_DATANODE_OPTS="-Dsecurity.audit.logger=ERROR,DRFAS -Xmx10g $HADOOP_DATANODE_OPTS "
export HADOOP_CLIENT_OPTS="-Xmx5g ${HADOOP_CLIENT_OPTS}"

0 个答案:

没有答案