8

如何在 theano 上实现加权二元交叉熵?

我的卷积神经网络只预测 0 ~~ 1 (sigmoid)。

我想以这种方式惩罚我的预测:

成本表

基本上,当模型预测为 0 但事实为 1 时,我想惩罚更多。

问题:如何使用 theano 和lasagne 创建这个加权二元交叉熵函数?

我在下面试过这个

prediction = lasagne.layers.get_output(model)


import theano.tensor as T
def weighted_crossentropy(predictions, targets):

    # Copy the tensor
    tgt = targets.copy("tgt")

    # Make it a vector
    # tgt = tgt.flatten()
    # tgt = tgt.reshape(3000)
    # tgt = tgt.dimshuffle(1,0)

    newshape = (T.shape(tgt)[0])
    tgt = T.reshape(tgt, newshape)

   #Process it so [index] < 0.5 = 0 , and [index] >= 0.5 = 1


    # Make it an integer.
    tgt = T.cast(tgt, 'int32')


    weights_per_label = theano.shared(lasagne.utils.floatX([0.2, 0.4]))

    weights = weights_per_label[tgt]  # returns a targets-shaped weight matrix
    loss = lasagne.objectives.aggregate(T.nnet.binary_crossentropy(predictions, tgt), weights=weights)

    return loss

loss_or_grads = weighted_crossentropy(prediction, self.target_var)

但我在下面收到此错误:

TypeError:reshape 中的新形状必须是向量或标量列表/元组。转换为向量后得到 Subtensor{int64}.0。


参考:https ://github.com/fchollet/keras/issues/2115

参考:https ://groups.google.com/forum/#!topic/theano-users/R_Q4uG9BXp8

4

2 回答 2

2

感谢千层面组的开发人员,我通过构建自己的损失函数来解决这个问题。

loss_or_grads = -(customized_rate * target_var * tensor.log(prediction) + (1.0 - target_var) * tensor.log(1.0 - prediction))

loss_or_grads = loss_or_grads.mean()
于 2016-12-20T19:33:19.067 回答
0

要解决您的语法错误:

改变

newshape = (T.shape(tgt)[0])
tgt = T.reshape(tgt, newshape)

newshape = (T.shape(tgt)[0],)
tgt = T.reshape(tgt, newshape)

T.reshape需要一个轴元组,你没有提供这个,因此错误。

在惩罚假阴性(预测 0,真相 1)之前,请确保此预测错误不是基于您的训练数据的统计数据,正如@uyaseen 建议的那样。

于 2016-09-16T17:00:15.123 回答