标签: python tensorflow neural-network conv-neural-network
我只想训练卷积层的一些权重。我当前的解决方案是,在每批处理之后将内核与掩码相乘,将我不想更新的权重设置为零。但是,这是低效的,因为我计算的是不更新的权重的梯度。函数stop_gradient似乎是我的问题的解决方案,但是我不知道如何在预构建的层上使用它。有没有办法使用此功能或在tf.nn.conv2d上使用类似功能?