12

根据深度学习教程

python中的自由能是

def free_energy(self, v_sample):
    ''' Function to compute the free energy '''
    wx_b = T.dot(v_sample, self.W) + self.hbias
    vbias_term = T.dot(v_sample, self.vbias)
    hidden_term = T.sum(T.log(1 + T.exp(wx_b)), axis=1)
    return -hidden_term - vbias_term

我不是很擅长python,基本上它将每个可见单元的产品专家作为向量wx_b,计算exp和加1,计算log并求和它的隐藏项。

我认为这与学习深度架构中的自由能方程有点不同:

FreeEnergy(x) = −b′x − ∑log∑e^hi(ci+Wix)。

在哪里:

  • hi是单位i隐藏层,
  • cii向量 c 中的隐藏偏差。

它计算 exp 和 sum,计算相对于 sum 值的 log。毕竟根据可见单位的数量来总结所有产品专家。

上述等式是来自Learning Deep Architectures for AI (Yoshua Bengio) 的 eq.5.21

下面是我的java实现草稿vis_v是可见层样本,hid_v是隐藏层单元样本。

private double freeEnergy(RealVector vis_v, RealVector hid_v){
 RealVector wx_hb= W.preMultiply(vis_v).add(hBias);
 double vbias_term= vis_v.dotProduct(vBias);
 double sum_hidden_term = 0;
 for(int i=0;i< wx_hb.getDimension();i++){
     RealVector vis_expert = hid_v.mapMultiply(wx_hb.getEntry(i));
     double hidden_term= StatUtils.sum(vis_expert.map(new Exp()).toArray());
     sum_hidden_term+=Math.log(hidden_term);
 }
 return -sum_hidden_term-vbias_term;
}

这是某种近似吗?我试图在java中实现同样的东西,但我对此感到困惑。提前感谢您的帮助!

4

1 回答 1

3

我认为您的困惑在于参考 python 代码中自由能函数的定义。如果这不是你的要求,我道歉。

首先,这不是一个近似值。看起来他们假设隐藏单元是二进制值的。请记住,自由能只是(对数)隐藏变量被边缘化的能量。因此,您上面列出的自由能方程中的内部总和只是第 i^th 个隐藏单元可以采用的值的总和,在这种情况下,它是 {0,1}。由于 exp(0) = 1,内部和就变成了 1+exp(...)。请参阅您提供的链接中的“使用二进制单位的 RBM”部分。

我不熟悉java中的apache commons数学库,所以我不能在那里提供大量帮助,但实现应该是从那个python函数的直接翻译。

于 2012-03-30T15:25:35.623 回答