用GMM训练隐马尔可夫模型,在python中经过一些迭代后出现nan

时间:2019-05-31 14:13:11

标签: machine-learning nan gaussian hidden-markov-models gmm

问题

在使用HMM和GMM混合物对连续观测序列数据进行训练的过程中,成本函数逐渐减小,经过反复迭代后变为NaN。

我的数据背景

我有2 list say St & Rt。我的名单长度l en(St) = 200 & len(Rt) = 100 Each element in list is numpy array of size 100*5。每个列表都包含执行一些操作的车辆驾驶数据。

  

我在数据集的下方附有一张图片(即St [0]单   列表St中的元素,它是大小为100 * 5的numpy nd数组)   问题图片

我试图训练我的第一个列表,其中包含连续数据列表以获取模型的参数。

我正在给5 hidden states & 3 gaussian mixture as an input into model

我一直在计算log likelihood for every sequence i.e St[0], St1,.....,最后我总结得出最终成本值

当我开始训练时,它进行了5到8次迭代就很好了,然后就变成了NaN。

问题

1)NaN发生的原因是什么?

2)在向模型提供输入之前,我的数据集中是否有任何预处理步骤?

我是学习HMM-GMM建模的新手。

请通过任何外部来源或链接在此领域提供一些启示。 图片(问题和培训数据)

 in Python enter image description here

0 个答案:

没有答案