使用隐藏事件语言模型预测隐藏事件的基础算法是什么?

时间:2015-08-17 21:17:06

标签: nlp hidden-markov-models srilm

我正在将标点符号预测问题建模为隐藏事件模型,并尝试遵循Stolcke的论文Modeling the Prosody of Hidden Events for Improved Word Recognition中描述的算法。

在计算ngram模型后,他描述了用于计算事件的最大似然序列的算法:

  

通过对P(W,S)使用N-gram模型,并如公式4所述分解韵律似然,联合模型P(W,S,F)   变得等同于隐藏的马尔可夫   模型(HMM)。 HMM状态是(单词,事件)对,而   韵律特征形成观察。转换概率   由N-gram模型给出;通过下面描述的韵律模型估计发射概率。基于此   施工,我们可以尽可能地进行总结   事件序列有效地与熟悉的前向动态   HMM的编程算法。

我很困惑这可能是一个带状态(单词,事件)的Markov模型,因为如果我们的底层模型是一个N-gram模型,在我看来状态需要编码N-1前面的单词为了获得预测下一个状态的所有必要信息。这里发生了什么?谢谢!

1 个答案:

答案 0 :(得分:0)

表1描述了序列的可能隐藏标签。 3.2。描述了HMM语义。所以说,排放是单词和标点符号。隐藏标签是由表1中提供的标签组成的序列中的标签。