TensorFlow 有一个奇妙的功能。
tf.nn.softmax_cross_entropy_with_logits
后来我看到另一个功能,
tf.nn.softmax_cross_entropy_with_logits_v2
这个新功能的原因是什么?
在使用较早的函数时,Tensorflow 说,
默认情况下,TensorFlow 的未来主要版本将允许梯度流入 backprop 上的标签输入。
请参阅 tf.nn.softmax_cross_entropy_with_logits_v2。
我不明白它实际上是什么意思。但是函数的定义是一样的。
tf.nn.softmax_cross_entropy_with_logits_v2(
_sentinel=None,
labels=None,
logits=None,
dim=-1,
name=None
)
这些文件有点让我头疼(因为它们也是一样的)。有更好的解释吗?