如何在Apache Spark中使用Stanford NER

时间:2017-05-01 16:41:33

标签: nltk stanford-nlp

我们正在考虑将Stanford NER用于我们域的实体提取。所以我们需要重新训练分类器。但是,我们有Apache Spark环境。我想知道任何人都可以建议如何在Spark上使用Stanford NER。我使用的是python 2.7 + NLTK。

非常感谢任何回应。

1 个答案:

答案 0 :(得分:1)

Spark的维护者编写了一些用于运行Stanford CoreNLP注释的代码。

GitHub项目在这里:https://github.com/databricks/spark-corenlp