我正在尝试创建一个语言模型。我有logit
大小目标:[32, 312, 512]
在哪里:
.shape[0]
是batch_size
.shape[1]
是sequence_max_len
.shape[2]
是vocabulary size
问题是 - 当我传递logit
到target
损失函数时,如下所示:
self.loss = tf.reduce_mean(
tf.nn.softmax_cross_entropy_with_logits(
logits=self.logit, labels=self.y))
它是否计算当前批次的适当损失?或者我应该重塑logit
并target
表达以下形状:[32, 312*512]
?
在此先感谢您的帮助!