CoreNLP:在Windows操作系统上加载“开箱即用”和自定义NER模型

时间:2017-08-29 14:02:20

标签: stanford-nlp filepath

我希望在Windows 10计算机上加载自定义构建NER模型以及“开箱即用”的Stanford CoreNLP NER模型之一。我想将两种模型都应用到我的文本中。

我已经为CentOS系统完成了这项工作,并撰写了这个问题"Load Custom NER Model Stanford CoreNLP"

我知道我可以将movies与属性文件一起使用来加载自定义NER模型。当您执行此操作时,这是唯一要加载的模型,除了自定义模型之外,您还必须指定要加载的“开箱即用”NER模型。我在我的CentOS系统上完成了这个,但是无法在我的Windows计算机上完成它。

难以指定“开箱即用”NER模型的文件路径。我将这种类型的路径用于我的自定义模型-serverproperties,但我没有“开箱即用”NER模型的文件路径,因为它们的路径适用于Linux操作系统。

如何在我的server.prop文件中正确引导CoreNLP到“开箱即用”的NER模型?

2 个答案:

答案 0 :(得分:0)

ner.model文件路径可以采用逗号分隔的列表,其中包含多个模型路径。我老实说我不熟悉Windows,所以如果你在DOS的列表中提供ner.model样式路径,我不确定会发生什么。

但是假设这不起作用,你可以随时制作一个jar并将自定义模型放在带有Unix路径的jar中,然后在运行应用程序时将该jar放入CLASSPATH。

答案 1 :(得分:0)

我能够解决自己的问题。这就是我在server.prop文件中使用的内容:

ner.model = C:\\path\\to\\custom_model.ser.gz,edu/stanford/nlp/models/ner/english.all.3class.distsim.crf.ser.gz

我遇到的问题是我在逗号分隔模型之后放了一个空格。我会得到"无法加载为url,path或file"错误,因为它是在文件路径中添加空格。 〜面对掌心〜