R的coreNLP :: initCoreNLP()抛出java.lang.OutOfMemoryError

时间:2016-01-25 00:01:57

标签: r stanford-nlp rjava

coreNLP是一个R包,用于连接Standford的CoreNLP Java库。必须执行的第一行(在使用library()命令加载适当的包之后)为initCoreNLP()。不幸的是,这会导致以下错误:

  

从edu / stanford / nlp / models / ner / english.conll.4class.distsim.crf.ser.gz加载分类器... rJava ::。jnew(" edu.stanford.nlp。 pipeline.StanfordCoreNLP",basename(path)):     java.lang.OutOfMemoryError:超出GC开销限制

请注意,这与此处列出的问题相同:(initCoreNLP() method call from the Stanford's R coreNLP package throws error)。然而,在这种情况下,OP发现重新启动他的机器使问题消失。这对我来说不是 的情况;即使重启后我也会继续体验它。

是否有其他人遇到此问题并提供解决方案或建议?

提前致谢, DG

配置详情:

R版本3.2.3(2015-12-10)

rJava版本0.9-7

coreNLP版本0.4-1

机器:使用8GB RAM赢取7

1 个答案:

答案 0 :(得分:0)

以下是我发现的一些文档:

https://cran.r-project.org/web/packages/coreNLP/coreNLP.pdf

(特别是第7页)

您可以指定使用的内存量(来自文档):

initCoreNLP(libLoc, parameterFile, mem = "4g", annotators)

添加更多内存,我想这个问题会消失。