大量内存中的斯坦福解析器Java堆空间错误

时间:2018-10-24 04:13:56

标签: java python nlp jvm heap

我在专利文本挖掘中使用的是stanford-parser 3.9.2,

我遇到了很多Java堆空间错误。

我的硬件环境如下: 处理器:Intel(R)CoreTM i7-7600 CPU @ 3.40GHZ 3.41GHZ Ram:64.0GB

我尝试使用python中的一些选项来解决此问题:

os.environ["STANFORD_PARSER"]='C:/Users/super/Desktop/Python NLP/nlp_root'
os.environ["STANFORD_MODELS"]='C:/Users/super/Desktop/Python NLP/nlp_root'
os.environ["JAVAHOME"]='C:/Program Files/Java/jdk1.8.0_151/bin/java.exe'
os.environ["JAVA_OPTS"]="-Xmx50g"
parser=stanford.StanfordParser(model_path='C:/Users/super/Desktop/Python NLP/nlp_root/englishPCFG.ser.gz')
parser.java_options='-mx50000m'

但是Java堆空间一次又一次出现。.

我认为50Gb的ram内存足以解析哨点,

所以有一些内置的Java选项代码。

错误代码:


*警告!内存不足! 不够 存储所有运行的内存。给予 JVM更多内存,设置最大语句 具有-maxLength的长度,或者表示您是 很高兴使用 使解析器功能恢复正常 非常长句子的SIMPLER解析器。 *


0 个答案:

没有答案