3

我决定用遗传算法来训练神经网络。它们将通过遗传发展,其中一个(许多)可变基因应该是转移功能。

所以,我需要更深入地研究数学,这真的很耗时。

例如,我有三个传递函数基因的变体。

1)log sigmoid函数

2)tan sigmoid函数

3)高斯函数

传递函数基因的特点之一应该是它可以修改函数的参数以获得不同的函数形状。

现在,我还无法解决的问题:

我在神经网络的输出上有错误,如何通过不同参数的不同函数将其转移到权重上?根据我的研究,我认为这与导数和梯度下降有关。

我是高级数学菜鸟。有人可以通过简单的示例向我解释如何通过参数化(例如)sigmoid 函数将误差传播回权重吗?

编辑 我还在做研究,现在我不确定我是否误解了反向传播。我找到了这个文档 http://www.google.cz/url?sa=t&rct=j&q=backpropagation+algorithm+sigmoid+examples&source=web&cd=10&ved=0CHwQFjAJ&url=http%3A%2F%2Fwww4.rgu.ac.uk% 2Ffiles%2Fchapter3%2520-%2520bp.pdf&ei=ZF9CT-7PIsak4gTRypiiCA&usg=AFQjCNGWZjabH5ALbDLgSOBak-BTRGmS3g 并且他们有一些计算权重的示例,其中不涉及将函数转换为权重调整。

那么是否没有必要将传递函数纳入体重调整?

4

1 回答 1

4

反向传播确实与导数和梯度下降有关。
我认为没有任何捷径可以真正理解数学,但这可能会有所帮助——我是为其他有基本相同问题的人写的,并且至少应该在高层次上解释发生了什么,以及为什么。

反向传播训练算法如何工作?

于 2012-02-20T16:10:19.453 回答