标签: tensorflow gradient pytorch
目前,我正在用tensorflow实现代码替换Pytorch的代码。
参考代码包含以下行。
XXX.backward(grad_output, retain_graph=True) YYY = input.grad.detach().sum(1).clone().clamp(min=0)
XXX对应于fc层之前的ResNet的N\*N*C地图。
XXX
N\*N*C
在此代码中,在计算反向路径时,将输入直接定义的梯度而不是损失值。
我如何描述这与Tensorflow一起实现?