在我关于 AI 的书中写道,误差函数是 (target-output)^2
d=增量
W=重量
O=输出
T=目标
dE/Wa = dE/dOk * dOk/dWa
dE/dWa = -2*(Tk-Ok)*dOk/dWa。//这个减号是从哪里来的?
所以推导必须是 2*(target-Output)。我不明白减号是从哪里来的。
在我关于 AI 的书中写道,误差函数是 (target-output)^2
d=增量
W=重量
O=输出
T=目标
dE/Wa = dE/dOk * dOk/dWa
dE/dWa = -2*(Tk-Ok)*dOk/dWa。//这个减号是从哪里来的?
所以推导必须是 2*(target-Output)。我不明白减号是从哪里来的。
我相信你也忘了取内部的导数。因为导数是输出的函数。因此,您还必须对内部“-output”进行导数,我们可以将其想象为“-x”。导数只是-1。
因此,函数实际上是 (target - output)(-1)(2),其中 (-1) 来自 (-output) 的导数, (2) 来自幂。
该网站描述了该衍生品的一些基本示例:
https://www.intmath.com/differentiation/7-derivative-powers-of-function.php
编辑:传统上,如果你只是做反向传播,你将梯度作为 J 的函数,所以那里实际上不应该有负号。负号的唯一时间是导数作为输出的函数。但我会进一步调查。