您可能已经想通了,但我想我不妨发布一个可能的解决方案。
以下代码创建维度为 (2,100) 的随机数据,并尝试使用 EM_uniform 算法训练 128 混合 gmm:
import sidekit
import numpy as np
import random as rn
gmm = sidekit.Mixture()
data = np.array([[rn.random() for i in range(100)],[rn.random() for i in range(100)]])
gmm.EM_uniform(data,
distrib_nb=128,
iteration_min=3,
iteration_max=10,
llk_gain=0.01,
do_init=True)
但是,这会导致与您报告的错误相同:ValueError:操作数无法与形状一起广播 (128,100) (128,0)
我怀疑在 Sidekit.Mixture._init_uniform() 中计算 gmm.invcov 的方式存在一些错误,所以我想出了使用 Sidekit.Mixture._init() 中的代码手动初始化混合物(EM_split 的初始化函数()-算法)。
以下代码在我的计算机上运行没有错误:
import sidekit
import numpy as np
import random as rn
import copy
gmm = sidekit.Mixture()
data = np.array([[rn.random() for i in range(100)],[rn.random() for i in range(100)]])
# Initialize the Mixture with code from Sidekit.Mixture._init()
mu = data.mean(0)
cov = (data**2).mean(0)
gmm.mu = mu[None]
gmm.invcov = 1./cov[None]
gmm.w = np.asarray([1.0])
gmm.cst = np.zeros(gmm.w.shape)
gmm.det = np.zeros(gmm.w.shape)
gmm.cov_var_ctl = 1.0 / copy.deepcopy(gmm.invcov)
gmm._compute_all()
# Now run EM without initialization
gmm.EM_uniform(data,
distrib_nb=128,
iteration_min=3,
iteration_max=10,
llk_gain=0.01,
do_init=False)
这给出了以下输出:[-31.419146414931213, 54.759037708692404, 54.759037708692404, 54.759037708692404],这是每次迭代后的对数似然值(4 次迭代后收敛。请注意,这个示例数据对于训练 gmm 来说太小了。)
我不能保证这会导致以后出现任何错误,如果是这种情况,请发表评论!
至于 HDF5 文件,请查看h5py 文档以获取教程。此外,hdfview 允许您查看 h5 文件的内容,这对于稍后进行评分时的调试非常方便。