我正在用早期停止策略训练我的网络。我从较高的学习率开始,基于验证损失,我需要从较早的快照重新开始训练。
我可以使用模型和优化器保存/加载快照state_dicts
。没问题。
我的问题是,一旦我重新开始训练,我该如何再次设置 adam 的学习率?我应该重新启动 adam 而不是使用 astate_dict
还是应该使用
optimizer.param_groups[0][‘lr’] = lr
加载的优化器来调整学习率state_dict
?
例如,我用lr = 1e-6
5 个 epoch、保存的模型和优化器训练我的网络state_dict
。我现在从 epoch 6 重新开始,但我需要lr = 1e-7
。最好的方法是什么?
谢谢!