我最近遇到了tf.nn.sparse_softmax_cross_entropy_with_logits,我无法弄清楚与tf.nn.softmax_cross_entropy_with_logits相比有什么区别。
唯一的区别是训练向量在使用时y
必须进行一次热编码sparse_softmax_cross_entropy_with_logits
吗?
阅读 API,与softmax_cross_entropy_with_logits
. 但是为什么我们需要额外的功能呢?
如果提供单热编码的训练数据/向量, 不应该softmax_cross_entropy_with_logits
产生与 相同的结果吗?sparse_softmax_cross_entropy_with_logits