斯坦福NLP工具和大量文本

时间:2011-07-01 11:05:25

标签: java nlp stanford-nlp

我目前正在使用Stanford CoreNLP工具从文本中提取三元组。我一直在处理相对较小的文本,但我需要让它适用于较大的文本。此外,我需要平均机器上的这项工作与平均内存量。关于如何减少内存负载的任何建议?也许可以将文本分成更小的部分(这会搞乱共识......)?

谢谢

1 个答案:

答案 0 :(得分:0)

强力方法:使用非堆内存(使用磁盘空间作为Java程序的内存),请参阅此threadgo here to learn more about BigMemory library。慢,但它可能是你正在寻找的。