使用自定义模型运行Stanford corenlp服务器

时间:2016-01-14 05:00:50

标签: stanford-nlp

我和Stanford corenlp一起训练了一个POS标记器和神经依赖解析器。我可以通过命令行让它们工作,现在想通过服务器访问它们。

但是,服务器的documentation并未提及有关使用自定义模型的任何信息。我检查了代码,但没有找到任何明显的方式来提供配置文件。

知道怎么做吗?我不需要所有的注释器,只需要我训练的注释器。

1 个答案:

答案 0 :(得分:3)

是的,服务器应该(理论上)支持常规管道的所有功能。 properties GET参数会转换为您通常会传递到Properties的{​​{1}}对象。因此,如果您希望服务器加载自定义模型,您可以通过例如:

调用它
StanfordCoreNLP

请注意,服务器之后不会对此模型进行垃圾收集,因此如果加载太多模型,很可能会遇到内存不足错误......