在使用反向传播训练多层神经网络时,所有层的权重在每次迭代中都会更新。
我在想如果我们随机选择任何层并仅在反向传播的每次迭代中更新该层的权重。
它将如何影响训练时间?模型性能(模型的泛化能力)是否会受到这种训练的影响?
我的直觉是泛化能力相同,训练时间会减少。如果我错了,请纠正。
在使用反向传播训练多层神经网络时,所有层的权重在每次迭代中都会更新。
我在想如果我们随机选择任何层并仅在反向传播的每次迭代中更新该层的权重。
它将如何影响训练时间?模型性能(模型的泛化能力)是否会受到这种训练的影响?
我的直觉是泛化能力相同,训练时间会减少。如果我错了,请纠正。