我正在从文档(pdfs)中提取命名实体。每个pdf包含一组实体(近16种不同类型的实体)
以下是构建NLP和ML模型的步骤:
Step 1
:解析文件。得到近2百万代币(单词)。使用这些词和CBOW方法构建word2vec模型。Step 2
:使用word2vec模型,为douments中的单词生成矢量。Step 3
:根据域名,我标记了单词(向量)进行培训,验证和测试。Step 4
:使用标记数据,训练神经网络模型。Step 5
:模型构建完成后,给模型提供测试数据(单词)。精度达到85%。直到现在一切顺利。但问题是下一步。 :(
Step 6
:现在我想根据从训练模型中分类的单词制作具有置信度分数的实体。 使用SOFTMAX
对输入进行分类的神经网络模型。从这个模型得到每个单词的分数。
但我的问题是,我的实体包含至少3个单词。如何计算生成实体的置信度分数。
现在,如果实体有三个单词,我正在使用P(entity) = P(w1)*P(w2)*(w3)
。
请帮助我。这种方法一直没有意义。
假设,如果模型只预测实体中的两个单词,那么实体置信度将为P(entity) = P(w1)*P(w2)
。
如果模型只预测实体中的一个单词,那么P(entity) = P(w1)
。 :(
答案 0 :(得分:0)
为什么P(实体)= P(w1)+ P(w2)+ P(w3)? 如果你需要一个归一化数(0-1)并假设P(w)有一个0-1范围,那么:P(实体)=(P(w1)+ P(w2)+ P(w3))/ 3
为了获得更好的分数,您应该计算每个单词的信息内容。一个常见的词应该少贡献:https://bmcbioinformatics.biomedcentral.com/articles/10.1186/1471-2105-6-S1-S21
答案 1 :(得分:0)
Stanford NLP工具箱使用min(Pi)作为P(entity)。从我的角度来看,从数学观点来看,这都不是什么。