如何制作轻量级的stanford-nlp.jar

时间:2015-05-11 07:17:04

标签: stanford-nlp

我注意到整个库很大,大约300MB。但我只使用tokenize,ssplit,pos。我怎样才能创建一个轻型库?非常感谢。

最佳, 黄

1 个答案:

答案 0 :(得分:2)

如果您只想要词性标签,则可以只包含词性标注器模型;例如,从以下网址下载:nlp.stanford.edu/software/tagger.shtml。您还可以安全地继续从模型罐中删除不需要的模型,使其变小。