我已经按照pytorch手册保存并加载了检查点,一切似乎还可以。现在,通常,当我想开始训练时,我在pytorch中有类似的内容:
for itr in range(1, args.niters + 1):
optimizer.zero_grad() # should I or should I not when checkpoints are loaded?
我不确定是否应该在这里zero_grad()
(我从头开始训练时会使用),因为我正在重新加载所有的力量和偏见。
很抱歉,这是一个愚蠢的问题。