在使用神经网络进行分类时,据说:
- 您通常希望使用 softmax 交叉熵输出,因为这为您提供了每个可能选项的概率。
- 在只有两个选项的常见情况下,您想使用 sigmoid,除了避免冗余输出 p 和 1-p 之外,这是一样的。
在 TensorFlow 中计算 softmax 交叉熵的方法似乎是这样的:
cost = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logits=prediction,labels=y))
所以输出可以直接连接到最小化代码,这很好。
我的 sigmoid 输出代码同样基于各种教程和示例,大致如下:
p = tf.sigmoid(tf.squeeze(...))
cost = tf.reduce_mean((p - y)**2)
我原以为两者在形式上应该相似,因为它们以几乎相同的方式完成相同的工作,但上面的代码片段看起来几乎完全不同。此外,sigmoid 版本显式地平方误差,而 softmax 则没有。(平方是在 softmax 的实现中发生的,还是发生了其他事情?)
以上其中一项是完全不正确的,还是有理由让它们完全不同?