标签: python tensorflow
在tensorflow中,如何通过不使用内置autodiff而计算出的梯度来更新变量?
在代码方面,我使用了通过某种方法(不是autodiff)计算出的变量grads的梯度vars,我只想调用
grads
vars
optimizer.apply_gradients(zip(grads, vars))
无需调用optimizer.compute_gradients()或optimizer.minimize()。单独使用上面的行似乎做不正确。
optimizer.compute_gradients()
optimizer.minimize()