假设在PyTorch中我有model1
和model2
具有相同的架构。他们接受了相同数据的进一步培训,或者一个模型是othter的早期版本,但它在技术上与问题无关。现在,我想将model
的权重设置为model1
和model2
权重的平均值。我怎么能在PyTorch中做到这一点?
答案 0 :(得分:5)
beta = 0.5 #The interpolation parameter
params1 = model1.named_parameters()
params2 = model2.named_parameters()
dict_params2 = dict(params2)
for name1, param1 in params1:
if name1 in dict_params2:
dict_params2[name1].data.copy_(beta*param1.data + (1-beta)*dict_params2[name1].data)
model.load_state_dict(dict_params2)
取自pytorch forums。您可以抓取参数,转换并加载它们,但要确保尺寸匹配。
此外,我真的很想知道你的发现......