如何使用OpenNlp的分块解析器基于概率提取有意义的名词短语

时间:2017-04-14 19:29:29

标签: probability opennlp chunks chunking

我是自然语言处理的新手。我需要根据它们的概率(例如75%及以上)提取有意义的名词和名词短语,以制作自动建议词典。

我一直在阅读在线帖子,文章几天,但只找到了一些信息。我想使用en-parser-chunking.bin 模型。

有人可以推荐一些涵盖与上述类似的用例的好资源/示例吗?

我现在站在哪里:

Model = en-parser-chunking.bin

String line =" Tutorialspoint是最大的教程库。&#34 ;;

树对象(输出): (TOP(S(NP(NN Tutorialspoint))(VP(VBZ)(NP(DT)(JJS最大)(NN教程)(NN库。)))))

Noun_Probability:

Tutorialspoint_0.4482373645195041 tutorial_0.6801141071099344 library._0.5625105229675064

1 个答案:

答案 0 :(得分:1)

我不认为这种做法很好。建议您可以尝试:使用OpenNLP Chunker而不是Parser(它快得多)。在大型语料库中运行它并提取名词短语及其频率。也许频率会给出如何构建词典的提示。