我不完全理解如何计算交叉熵误差。由于一些负数的对数没有定义(或虚构的),并且神经网络的输出可能是一些负数(权重和偏差是随机初始化的),我经常得到 NaN 作为结果。我该如何避免呢?
例子:
output[] = {-0.78, -0.98, 0.78, -0.68};
target[] = {-1.0, -1.0, 1.0, 1.0};
error = ln(0.78) * 1.0 + ln(-0.68) * 1.0;
我不完全理解如何计算交叉熵误差。由于一些负数的对数没有定义(或虚构的),并且神经网络的输出可能是一些负数(权重和偏差是随机初始化的),我经常得到 NaN 作为结果。我该如何避免呢?
例子:
output[] = {-0.78, -0.98, 0.78, -0.68};
target[] = {-1.0, -1.0, 1.0, 1.0};
error = ln(0.78) * 1.0 + ln(-0.68) * 1.0;
如果您的任务是二进制分类,我建议您将目标值“-1”更改为“0”。在最后一层,输出层,你有两个神经元(每个类一个)。对于神经网络的输出,您应该使用softmax 函数,它为每个类分配概率(意思是,您没有负值)。最后,每个实例的输出是对应于这两个概率中较大的类的标签。
交叉熵的定义显示了两个概率分布之间的量化差异。在机器学习的情况下,它会计算您的“目标”(真实值)与模型“输出”预测的值之间的差异。概率可能仅在 [0;1] 范围内变化,并且在任何情况下都可能不是负数。负数在概率方面没有任何意义。