我需要最小化tensorflow中的KL 损失。
我试过这个功能tf.contrib.distributions.kl(dist_a, dist_b, allow_nan=False, name=None)
,但我失败了。
我试图手动实现它:
def kl_divergence(p,q):
return p* tf.log(p/q)+(1-p)*tf.log((1-p)/(1-q))
这是正确的吗?
我需要最小化tensorflow中的KL 损失。
我试过这个功能tf.contrib.distributions.kl(dist_a, dist_b, allow_nan=False, name=None)
,但我失败了。
我试图手动实现它:
def kl_divergence(p,q):
return p* tf.log(p/q)+(1-p)*tf.log((1-p)/(1-q))
这是正确的吗?