Pytorch:如何获取所有需要毕业的模型参数?

时间:2019-02-18 10:09:00

标签: python machine-learning pytorch backpropagation

我在pytorch中有一些模型,我想手动访问和更改其可更新的权重。

那将如何正确完成?

理想情况下,我想要这些权重的张量。

在我看来

for parameter in model.parameters():
    do_something_to_parameter(parameter)

不是正确的方法,因为

  1. 它不利用GPU,并且不能
  2. 它甚至没有利用底层的实现方式

手动访问模型权重(而不是通过loss.backwardoptimizer.step)的正确方法是什么?

0 个答案:

没有答案