0

我有一个特定的学习率计划。它基于epoch但不同于我所知道的一般可用的,包括StepLR.

有没有什么可以相当于:

optimizer.set_lr(lr)

或者

optimizer.set_param('lr,',lr)

然后我会在每个结束时简单地调用该方法epoch(或者可能更频繁)

上下文:我正在使用adam优化器:

    optimizer = torch.optim.Adam(model.parameters(), lr=LrMax, weight_decay=decay) # , betas=(args.beta1, args.beta2)

更新 我发现了这个信息https://discuss.pytorch.org/t/change-learning-rate-in-pytorch/14653

for param_group in optimizer.param_groups:
        param_group['lr'] = lr

有没有办法确定正在使用的adam优化器正在使用新的学习率?

4

1 回答 1

1

你可以这样做:

for param_group in optimizer.param_groups:
    param_group['lr'] = lr
于 2020-10-22T19:59:53.620 回答