假设您正在使用 Pytorch 优化器,例如 torch.optim.Adam(model_parameters)。
因此,在您的训练循环中,您将拥有以下内容:
optimizer = torch.optim.Adam(model_parameters)
# put the training loop here
loss.backward()
optimizer.step()
optimizer.zero()
有没有办法监控你的优化器正在采取哪些步骤?确保您不在平坦区域,因此由于渐变为空,因此不采取任何步骤。也许检查学习率将是一个解决方案?