标签: python machine-learning pytorch backpropagation
我在pytorch中有一些模型,我想手动访问和更改其可更新的权重。
那将如何正确完成?
理想情况下,我想要这些权重的张量。
在我看来
for parameter in model.parameters(): do_something_to_parameter(parameter)
不是正确的方法,因为
手动访问模型权重(而不是通过loss.backward和optimizer.step)的正确方法是什么?
loss.backward
optimizer.step