根据深度学习教程:
python中的自由能是
def free_energy(self, v_sample):
''' Function to compute the free energy '''
wx_b = T.dot(v_sample, self.W) + self.hbias
vbias_term = T.dot(v_sample, self.vbias)
hidden_term = T.sum(T.log(1 + T.exp(wx_b)), axis=1)
return -hidden_term - vbias_term
我不是很擅长python,基本上它将每个可见单元的产品专家作为向量wx_b,计算exp和加1,计算log并求和它的隐藏项。
我认为这与学习深度架构中的自由能方程有点不同:
FreeEnergy(x) = −b′x − ∑log∑e^hi(ci+Wix)。
在哪里:
hi
是单位i
隐藏层,ci
是i
向量 c 中的隐藏偏差。
它计算 exp 和 sum,计算相对于 sum 值的 log。毕竟根据可见单位的数量来总结所有产品专家。
上述等式是来自Learning Deep Architectures for AI (Yoshua Bengio) 的 eq.5.21
下面是我的java实现草稿vis_v是可见层样本,hid_v是隐藏层单元样本。
private double freeEnergy(RealVector vis_v, RealVector hid_v){
RealVector wx_hb= W.preMultiply(vis_v).add(hBias);
double vbias_term= vis_v.dotProduct(vBias);
double sum_hidden_term = 0;
for(int i=0;i< wx_hb.getDimension();i++){
RealVector vis_expert = hid_v.mapMultiply(wx_hb.getEntry(i));
double hidden_term= StatUtils.sum(vis_expert.map(new Exp()).toArray());
sum_hidden_term+=Math.log(hidden_term);
}
return -sum_hidden_term-vbias_term;
}
这是某种近似吗?我试图在java中实现同样的东西,但我对此感到困惑。提前感谢您的帮助!