直接更新优化器学习率

时间:2020-10-22 19:49:46

标签: pytorch learning-rate

我有一个具体的学习进度表。它基于epoch,但与我所知道的包括StepLR的普遍可用的有所不同。

有什么东西可以做的等同于:

optimizer.set_lr(lr)

optimizer.set_param('lr,',lr)

然后我将在每个epoch的末尾简单地调用该方法(甚至可能更频繁地)

上下文:我正在使用adam优化器:

    optimizer = torch.optim.Adam(model.parameters(), lr=LrMax, weight_decay=decay) # , betas=(args.beta1, args.beta2)

更新,我发现了此信息https://discuss.pytorch.org/t/change-learning-rate-in-pytorch/14653

for param_group in optimizer.param_groups:
        param_group['lr'] = lr

是否可以确定正在使用的adam优化器正在采用新的学习率?

1 个答案:

答案 0 :(得分:1)

您可以通过以下方式执行此操作:

for param_group in optimizer.param_groups:
    param_group['lr'] = lr