标签: stanford-nlp
我注意到整个库很大,大约300MB。但我只使用tokenize,ssplit,pos。我怎样才能创建一个轻型库?非常感谢。
最佳, 黄
答案 0 :(得分:2)
如果您只想要词性标签,则可以只包含词性标注器模型;例如,从以下网址下载:nlp.stanford.edu/software/tagger.shtml。您还可以安全地继续从模型罐中删除不需要的模型,使其变小。