在张量流中,在我将每一层的可训练标志设置为 False 后,尝试训练网络不会改变权重(如预期的那样)。但是,每个 epoch 仍然需要相同的时间(大约 12 秒)来训练,就像不冻结任何层的训练一样。
为澄清起见,我在编译前将每一层的可训练标志设置为 False。
for i in range(len(model.layers)):
model.layers[i].trainable = False
有谁知道为什么会这样?我的实际意图是通过冻结一些权重来减少网络的训练时间。当冻结一些重量并没有减少训练时间时,我尝试冻结所有重量,但即使这样也没有减少训练时间。
值得一提的是,我使用的是 tensorflow 1.12.0