1

我创建了一个具有三个密集层的 keras 顺序模型,我只创建了一个自定义损失函数,如下所示:

def lossFunctionality(y_t, y_p):
    # 'y_t' shape is (bach_size, 500)
    # 'y_p' shape is (bach_size, 256) (output of last layer)
    # 'v' is np array of shape (500, 256)

    p = K.exp(K.dot(y_p, K.transpose(v)))
    sp = K.sum(p,axis=1)
    sp = K.expand_dims(sp, axis=1)
    sp = K.tile(sp,(1, len(v)))

    soft = p/sp
    soft=K.clip(soft, 0.0000001, 0.9999999)
    obj = K.categorical_crossentropy(soft, y_t)
    return obj

有了这个损失函数,一切都很好。

但现在假设我为“y_p”中的每条记录都有特定的“v”数组,我想做代码的第 5 行,以使“y_p”的点积与记录特定的“v”数组。换句话说,我有 'v' 向量的 bach_size 的数量,我想将 'y_p' 中的每条记录乘积到那个特定的 'v' 数组中。我想要的是如下所示:

def lossFunctionality(y_t, y_p):
    tempArray=[]
    for record in y_p:
        tempArray.append(K.exp(K.dot(record, K.transpose(v))))
    p=np.array(tempArray)
    sp = K.sum(p,axis=1)
    sp = K.expand_dims(sp, axis=1)
    sp = K.tile(sp,(1, len(v)))

    soft = p/sp
    soft=K.clip(soft, 0.0000001, 0.9999999)
    obj = K.categorical_crossentropy(soft, y_t)
    return obj

但我收到错误“张量”对象不可迭代。我怎样才能以正确的方式实现我的损失函数我真的很感谢你的帮助

4

1 回答 1

1

您不应该在损失函数中真正迭代张量或使用列表、numpy 数组等。

理想情况下,您必须使用后端函数来做所有事情,这些函数可以与张量一起正常工作。

如果我没有正确理解它,那么您需要的是一个batch_dot函数,也许与permute_dimensions您是否真的需要转置“v”有关。

我假设你有一个“v”向量列表,对吧?我会回答它,就好像我的代码中的“v”是一个形状为(batch_size, 500, 256).

import keras.backend as K

--------------

#transform v in a tensor
vTens = K.variable(v) #maybe having vTens already instanced and transposed outside the loss function would result in better performance (if it's constant)   

#transposing v without changing the batch dimension
vTrans = K.permute_dimensions(vTens,(0,2,1)) 

#doing a batch dot
dotResult = K.batch_dot(y_p,vTrans,axes=[1,2])

在 中batch_dot,考虑了轴 1 和轴 2,而轴 0 是批量大小,将保持不变。

关于您的功能的重要说明:

你将无法拥有不同的维度y_py_t这简直不能接受。您的模型预测必须与您的真实值具有完全相同的形状。

方法(或任何其他训练方法)中肯定会出现错误,fit告诉您您的尺寸不匹配。

在达到损失函数之前,您确实需要有一个层来转换您的输出,因此y_p并且y_t具有相同的维度。

为此,请使用LambdaLayer

model.add(LambdaLayer(transformOutput, output_shape=(500,))

您之前描述的函数在哪里transformOutput,也使用张量。

def transformOutput(x):
    #transform v in a tensor
    vTens = K.variable(v) #maybe having vTens already instanced and transposed outside the loss function would result in better performance (if it's constant)   

    #transposing v without changing the batch dimension
    vTrans = K.permute_dimensions(vTens,(0,2,1)) 

    #doing a batch dot
    return K.batch_dot(x,vTrans,axes=[1,2])
于 2017-06-14T13:45:26.970 回答