DP-GMM和在线群集分配

时间:2016-09-19 03:27:32

标签: scikit-learn gaussian bayesian mixture-model dirichlet

我希望scikit-learn的DP-GMM允许在给定新数据的情况下在线更新群集分配,但sklearn的DP-GMM实现只有一种拟合方法。

我对变分推理的理解尚不清楚,我认为无法进行群集分配的在线更新特别是sklearn的实现,而不是无限GMM的变分推断。

如果有人能够澄清这一点并指出能够在线更新群集分配的实现,我将非常感激!

http://scikit-learn.org/stable/modules/generated/sklearn.mixture.DPGMM.html

1 个答案:

答案 0 :(得分:0)

发布Dawen Liang的解释:

  1. 贝叶斯非参数不等于在线学习。它只是意味着根据数据确定模型复杂性,这可能发生在批量学习设置中(如sklearn的DP-GMM实现)。

  2. 变分推断本质上是一种基于优化的方法,因此您当然可以应用随机优化方法,这使您能够进行在线学习。在贝叶斯非参数模型上应用随机变分推理实际上仍然是一个活跃的研究领域。

  3. Emily Fox's sampler sticky HDP-HMM

    John Paisley's group HDP-HMM Matt Hoffman's infinite HMM (perhaps not HDP)

    1 http://www.stat.washington.edu/~ebfox/software/HDPHMM_HDPSLDS_toolbox.zip