我正在尝试创建一个语言模型。我有logit大小目标:[32, 312, 512]
在哪里:
.shape[0]是batch_size.shape[1]是sequence_max_len.shape[2]是vocabulary size
问题是 - 当我传递logit到target损失函数时,如下所示:
self.loss = tf.reduce_mean(
tf.nn.softmax_cross_entropy_with_logits(
logits=self.logit, labels=self.y))
它是否计算当前批次的适当损失?或者我应该重塑logit并target表达以下形状:[32, 312*512]?
在此先感谢您的帮助!