如何在卷积层的内核上使用tensorflows stop_gradient?

时间:2019-07-12 10:51:47

标签: python tensorflow neural-network conv-neural-network

我只想训练卷积层的一些权重。我当前的解决方案是,在每批处理之后将内核与掩码相乘,将我不想更新的权重设置为零。但是,这是低效的,因为我计算的是不更新的权重的梯度。函数stop_gradient似乎是我的问题的解决方案,但是我不知道如何在预构建的层上使用它。有没有办法使用此功能或在tf.nn.conv2d上使用类似功能?

0 个答案:

没有答案