我有一个具体的学习进度表。它基于epoch
,但与我所知道的包括StepLR
的普遍可用的有所不同。
有什么东西可以做的等同于:
optimizer.set_lr(lr)
或
optimizer.set_param('lr,',lr)
然后我将在每个epoch
的末尾简单地调用该方法(甚至可能更频繁地)
上下文:我正在使用adam
优化器:
optimizer = torch.optim.Adam(model.parameters(), lr=LrMax, weight_decay=decay) # , betas=(args.beta1, args.beta2)
更新,我发现了此信息https://discuss.pytorch.org/t/change-learning-rate-in-pytorch/14653:
for param_group in optimizer.param_groups:
param_group['lr'] = lr
是否可以确定正在使用的adam
优化器正在采用新的学习率?
答案 0 :(得分:1)
您可以通过以下方式执行此操作:
for param_group in optimizer.param_groups:
param_group['lr'] = lr