在 Tensorflow 中,我有一个分类器网络和不平衡的训练课程。由于各种原因,我不能使用重采样来补偿不平衡的数据。因此,我不得不通过其他方式来补偿不平衡,特别是根据每个类中的示例数将 logits 乘以权重。我知道这不是首选方法,但重采样不是一种选择。我的训练损失操作是tf.nn.softmax_cross_entropy_with_logits
(我也可以尝试tf.nn.sparse_softmax_cross_entropy_with_logits
)。Tensorflow 文档在这些操作的描述中包括以下内容:
警告:此操作需要未缩放的 logits,因为它在内部对 logits 执行 softmax 以提高效率。不要用 softmax 的输出调用这个操作,因为它会产生不正确的结果。
我的问题:上面的警告仅指softmax完成的缩放,还是意味着任何类型的任何logit缩放都被禁止?如果是后者,那么我的类重新平衡 logit 缩放是否会导致错误结果?
谢谢,
罗恩