我之前问过另一个关于 Hebbian 学习的问题,我想我得到了一个很好的答案,我接受了,但是,问题是我现在意识到我完全误解了 Hebbian 学习,而且我有点困惑。
那么,您能否解释一下它的用途以及用途?因为维基百科和其他一些页面描述它的方式 - 它没有意义!如果一起开火,为什么我们要不断增加输入和输出神经元之间的权重?它可以用来解决什么样的问题,因为当我在脑海中模拟它时,它肯定无法进行基本的 AND、OR 和其他操作(比如你将权重初始化为零,输出神经元永远不会触发,并且重量永远不会增加!)
我之前问过另一个关于 Hebbian 学习的问题,我想我得到了一个很好的答案,我接受了,但是,问题是我现在意识到我完全误解了 Hebbian 学习,而且我有点困惑。
那么,您能否解释一下它的用途以及用途?因为维基百科和其他一些页面描述它的方式 - 它没有意义!如果一起开火,为什么我们要不断增加输入和输出神经元之间的权重?它可以用来解决什么样的问题,因为当我在脑海中模拟它时,它肯定无法进行基本的 AND、OR 和其他操作(比如你将权重初始化为零,输出神经元永远不会触发,并且重量永远不会增加!)
你的问题似乎与理论有关,我不确定它是否属于 SO,但由于它直接连接到神经网络,我会尝试回答。
如果它们一起触发,我们会增加输入和输出神经元之间的权重,因为一起触发意味着它们以某种方式相关。
让我们以逻辑函数为例。在一个AND
函数中,您将有两个输入神经元。如果您的输入数据是(0, 0)
,则意味着输入神经元都不会触发,输出也不会触发。所以在这种情况下你不需要强大的连接。
现在接受输入(1, 1)
。两个输入神经元都会触发,输出也会触发。为了学习这种对应关系,网络应该增加连接输入和输出的权重(记住,这基本上是对输入和偏置神经元求和的问题)。
最后,当输出为(1, 0)
或时(0, 1)
,由于输出为0
,它告诉网络两个连接都不应该足够强大以自行激活输出神经元。
我希望这是有道理的。