0

TensorFlow 有一个奇妙的功能。

tf.nn.softmax_cross_entropy_with_logits

后来我看到另一个功能,

tf.nn.softmax_cross_entropy_with_logits_v2

这个新功能的原因是什么?

在使用较早的函数时,Tensorflow 说,

默认情况下,TensorFlow 的未来主要版本将允许梯度流入 backprop 上的标签输入。

请参阅 tf.nn.softmax_cross_entropy_with_logits_v2。

我不明白它实际上是什么意思。但是函数的定义是一样的。

tf.nn.softmax_cross_entropy_with_logits_v2(
    _sentinel=None,
    labels=None,
    logits=None,
    dim=-1,
    name=None
)

这些文件有点让我头疼(因为它们也是一样的)。有更好的解释吗?

4

0 回答 0