我正在研究复制神经网络。我试图了解标准图层类型的工作原理。特别是,我无法在任何地方找到关于跨通道归一化层在后向传递中的行为的描述。
由于规范化层没有参数,我可以猜测两个可能的选项:
来自下一个(即后来的)层的误差梯度被向后传递而不对它们做任何事情。
误差梯度的归一化方式与前向通道中激活跨通道的归一化方式相同。
我想不出你为什么会根据任何直觉做一个而不是另一个的原因,因此为什么我需要一些帮助。
编辑1:
该层是 caffe 中的标准层,如此处所述http://caffe.berkeleyvision.org/tutorial/layers.html(请参阅“本地响应规范化 (LRN)”)。
该层在前向传递中的实现在 alexNet 论文的第 3.3 节中进行了描述:http: //papers.nips.cc/paper/4824-imagenet-classification-with-deep-convolutional-neural-networks.pdf
编辑2:
我相信这里的 Torch 库中都描述了前向和后向传递算法:https ://github.com/soumith/cudnn.torch/blob/master/SpatialCrossMapLRN.lua
并在此处的 Caffe 库中:https ://github.com/BVLC/caffe/blob/master/src/caffe/layers/lrn_layer.cpp
请熟悉这两种方法的任何人都可以将向后传递阶段的方法翻译成简单的英语吗?