我正在从Jupyter Lab中运行的Python脚本访问CoreNLP Server。我正在使用完整的注释器套件从报纸文章中提取报价。
request_params={'annotators': "tokenize,ssplit,pos,lemma,ner,depparse,coref,quote",...
相对于建议的2GB,我分配了4GB,但是引用注释器无法加载。 Windows任务管理器长时间显示内存利用率> 94%。
在哪里可以获得可以调整以改善内存使用的选项列表?
答案 0 :(得分:1)
共指模型可能是主要原因。如果您不关心报价属性,可以设置-quote.attributeQuotes false
而不使用coref,但是您会丢失报价属性。
我不确定确切的数量,但我认为您可以在6GB-8GB的范围内运行问题中提出的整个管道。使用的模型确实占用大量内存。我认为您在注释中设置的选项(“ useSUTime”,“ applyNumericClassifiers”)根本不会影响内存占用。