感知器网络是单层的。由于它们的非持续激活功能,您不能对它们使用反向传播算法,因此它们不能是多层的。相反,Sigmoid 函数是一个可微函数,您可以对它们使用反向传播算法。在 Perception 中,您想调整使用的权重:
W(new) = W(old) + a·(t-x)·y
whena
是学习率,t
是目标值,x
是你的输入向量,y
是输出。
相反,当您想使用 Sigmoid 函数时,您必须使用基于梯度的算法。在这些算法中,您根据误差导数调整权重。
W(new) = W(old) - a·(dE/dW)
在多层网络中,您不能使用感知算法,因为它需要正确的输出,而您不知道隐藏神经元的正确输出。因此,在多层网络中,您必须使用基于梯度的算法和反向传播来反向传播 Error 和dE/dW
.
在单层神经网络中,您可以使用感知或基于梯度的算法。你不能告诉女巫更好。感知给你更好的分组和基于梯度的给你更多的抗噪性。
在基于梯度的算法中,您使用激活函数的导数来找到 dE/dW。ifZ
是神经元的总输入 (Z = [sum on i] Wi·Xi):
dE/dWi = Xi·(dE/dZ)
dE/dZ = -f'(Z)·(dE/dY)
在我们的例子中,因为我们使用了 Sigmoid 函数,所以对于二元 Sigmoid,f'(Z) 是 Y(1-Y),对于双极 Sigmoid,f'(Z) 是 0.5(1-Y)(1+Y)。
通常我们使用以下等式来计算误差(成本函数):
E = 0.5(T-Y)^2
所以我们的方程将转换为:
dE/dY = Y-T
dE/dZ = -0.5(1+Y)(1-Y)·(Y-T)
dE/dWi = - 0.5Xi·(1+Y)(1-Y)·(Y-T)
W(new) = W(old) + 0.5a·Xi·(1+Y)(1-Y)·(Y-T)
如果您使用以下算法更新权重,我认为您的问题将得到解决。