4

我希望 scikit-learnDP-GMM允许在给定新数据的情况下在线更新集群分配,但 sklearn 的实现DP-GMM只有一个 fit 方法。

我对变分推理的理解尚不清楚,我认为无法在线更新集群分配是 sklearn 的实现所特有的,而不是无限 GMM 的变分推理。

如果有人能澄清这一点并指出能够在线更新集群分配的实现,我将非常感激!

http://scikit-learn.org/stable/modules/generated/sklearn.mixture.DPGMM.html

4

1 回答 1

0

发表梁大文的解释:

  1. 贝叶斯非参数不等于在线学习。它只是意味着根据数据确定模型的复杂性,这可以在批量学习设置中发生(作为 sklearn 的 DP-GMM 实现)。

  2. 变分推理本质上是一种基于优化的方法,因此您当然可以应用随机优化方法,这使您能够进行在线学习。在贝叶斯非参数模型上应用随机变分推理实际上仍然是一个活跃的研究领域。

Emily Fox 的采样器粘性 HDP-HMM

John Paisley 的组 HDP-HMM Matt Hoffman 的无限 HMM(也许不是 HDP)

1 http://www.stat.washington.edu/~ebfox/software/HDPHMM_HDPSLDS_toolbox.zip

于 2016-09-23T02:41:36.887 回答