1

每当我在二进制分类问题上训练前馈神经网络时,网络都会返回浮点值。这背后的理论是什么?这可以解释为概率吗?例如,如果网络返回 0.7 是否相当于说该值为 1 而不是 0 的概率为 70%?那么我是否应该只缩放浮点值并将阈值定义为 0 或 1?

4

2 回答 2

0

我假设您使用 sigmoid 函数作为激活函数?

它将返回该范围内的值。当你在玩我的游戏时,我将其视为某个任意范围的百分比。如果您可以容忍一点错误,它可以是二进制结果。当我训练逻辑门时,经过相当成功的训练,1 AND 1 的结果类似于 0.9999999;这几乎是 1。您可以在该点处舍入它。

一两个月前我发了一篇关于这个的帖子。如果我能找到它,我会链接到它。

我的问题

于 2015-08-18T23:11:58.213 回答
0

当您在二元问题上训练 NN 时,如果您不使用二元激活函数,答案将是概率(如果您使用 sigmoid):属于某个类的实例概率。

我从不使用阈值或二元激活函数,因为研究概率总是很有趣。例如,您可能有一个错误分类的实例,但您观察到它的概率约为 0.5。因此,NN 不确定要固定在实例上的类。相反,如果一个实例被错误分类并且概率很大(接近 0 或 1),那么它就是一个强错误,你应该认真理解它为什么会被错误分类。

于 2015-08-24T07:05:43.577 回答