我正在将标点符号预测问题建模为隐藏事件模型,并尝试遵循Stolcke的论文Modeling the Prosody of Hidden Events for Improved Word Recognition中描述的算法。
在计算ngram模型后,他描述了用于计算事件的最大似然序列的算法:
通过对P(W,S)使用N-gram模型,并如公式4所述分解韵律似然,联合模型P(W,S,F) 变得等同于隐藏的马尔可夫 模型(HMM)。 HMM状态是(单词,事件)对,而 韵律特征形成观察。转换概率 由N-gram模型给出;通过下面描述的韵律模型估计发射概率。基于此 施工,我们可以尽可能地进行总结 事件序列有效地与熟悉的前向动态 HMM的编程算法。
我很困惑这可能是一个带状态(单词,事件)的Markov模型,因为如果我们的底层模型是一个N-gram模型,在我看来状态需要编码N-1前面的单词为了获得预测下一个状态的所有必要信息。这里发生了什么?谢谢!
答案 0 :(得分:0)
表1描述了序列的可能隐藏标签。 3.2。描述了HMM语义。所以说,排放是单词和标点符号。隐藏标签是由表1中提供的标签组成的序列中的标签。