coreNLP
是一个R包,用于连接Standford的CoreNLP Java库。必须执行的第一行(在使用library()
命令加载适当的包之后)为initCoreNLP()
。不幸的是,这会导致以下错误:
从edu / stanford / nlp / models / ner / english.conll.4class.distsim.crf.ser.gz加载分类器... rJava ::。jnew(" edu.stanford.nlp。 pipeline.StanfordCoreNLP",basename(path)): java.lang.OutOfMemoryError:超出GC开销限制
请注意,这与此处列出的问题相同:(initCoreNLP() method call from the Stanford's R coreNLP package throws error)。然而,在这种情况下,OP发现重新启动他的机器使问题消失。这对我来说不是 的情况;即使重启后我也会继续体验它。
是否有其他人遇到此问题并提供解决方案或建议?
提前致谢, DG
R版本3.2.3(2015-12-10)
rJava版本0.9-7
coreNLP版本0.4-1
机器:使用8GB RAM赢取7
答案 0 :(得分:0)
以下是我发现的一些文档:
https://cran.r-project.org/web/packages/coreNLP/coreNLP.pdf
(特别是第7页)
您可以指定使用的内存量(来自文档):
initCoreNLP(libLoc, parameterFile, mem = "4g", annotators)
添加更多内存,我想这个问题会消失。