关于如何编写神经网络的反向传播算法,我有几个问题:
我的网络拓扑结构是输入层、隐藏层和输出层。隐藏层和输出层都有 sigmoid 函数。
- 首先,我应该使用偏见吗?我应该将网络中的偏见连接到哪里?我应该在隐藏层和输出层中每层都放置一个偏置单元吗?输入层呢?
- 在此链接中,他们将最后一个增量定义为输入-输出,并反向传播增量,如图所示。在实际以前馈方式传播错误之前,他们持有一张表格来放置所有的增量。这是否背离了标准的反向传播算法?
- 我应该随着时间的推移减少学习因素吗?
- 万一有人知道,弹性传播是在线还是批量学习技术?
谢谢
编辑:还有一件事。在下图中,d f1(e) / de,假设我使用的是sigmoid函数,是f1(e) * [1- f1(e)],对吧?