我和Stanford corenlp一起训练了一个POS标记器和神经依赖解析器。我可以通过命令行让它们工作,现在想通过服务器访问它们。
但是,服务器的documentation并未提及有关使用自定义模型的任何信息。我检查了代码,但没有找到任何明显的方式来提供配置文件。
知道怎么做吗?我不需要所有的注释器,只需要我训练的注释器。
答案 0 :(得分:3)
是的,服务器应该(理论上)支持常规管道的所有功能。 properties
GET参数会转换为您通常会传递到Properties
的{{1}}对象。因此,如果您希望服务器加载自定义模型,您可以通过例如:
StanfordCoreNLP
请注意,服务器之后不会对此模型进行垃圾收集,因此如果加载太多模型,很可能会遇到内存不足错误......