我计划将 Nguyen-Widrow 算法用于具有多个隐藏层的 NN 。在研究过程中,我发现了很多模棱两可的地方,我希望澄清它们。
以下是 Nguyen-Widrow 算法的伪代码
Initialize all weight of hidden layers with random values
For each hidden layer{
beta = 0.7 * Math.pow(hiddenNeurons, 1.0 / number of inputs);
For each synapse{
For each weight{
Adjust weight by dividing by norm of weight for neuron and * multiplying by beta value
}
}
}
只是想澄清 hiddenNeurons 的值是特定隐藏层的大小,还是网络中所有隐藏层的大小。我通过查看各种来源混淆了。
换句话说,如果我有一个网络 (3-2-2-2-3) (索引 0 是输入层,索引 4 是输出层),那么 hiddenNeurons 的值会是:
NumberOfNeuronsInLayer(1) + NumberOfNeuronsInLayer(2) + NumberOfNeuronsInLaer(3)
要不就
NumberOfNeuronsInLayer(i) ,其中 i 是我所在的当前层
编辑:
那么,hiddenNeurons 值将是当前隐藏层的大小,而输入值将是前一个隐藏层的大小?