标签: python tensorflow gradient layer backpropagation
我想拥有一个Conv2d层,该层能够返回某些索引处的值乘以0.2的渐变。原始功能应该保留。
我的想法是将Conv2d类子类化,并有一个setter方法来保存groundtruth为0的索引:
<router-outlet>
我发现@ tf.custom_gradient是我可以使用的东西。如何实现访问原始渐变,操作并返回它们的方法?我必须以某种方式注册要在课堂上使用的自定义渐变吗?