在pytorch中修剪时如何断开重量模型?

时间:2019-12-11 01:09:53

标签: pytorch pruning

我尝试在模型中应用修剪。例如,

model = Model()
...  #train model
for param in model.parameters():
    param2 = param.clone()
    param2[param2==min(param2)]=0
    param = param2  #this clone is to avoid in-place change

此后,我必须停止更新该参数。我认为使用required_grad会很好,但是我不知道如何访问要应用的权重

weights.requires_grad = False

常用的方法是什么?

0 个答案:

没有答案