标签: python tensorflow optimization neural-network gradient
我正在尝试为Tensorflow编写自定义优化器,但我陷入了一件事-为了使算法正常工作,我需要在具有相同输入的两个“点”处计算损失函数的梯度。更精确地说,我需要g(theta, input)和g(theta + change, input),其中g是损失函数的梯度,theta是实际的网络权重,change是用于“计算”到第二位以计算梯度的指定值,input是输入向量。在Tensorflow中有可能发生这种情况吗?如果可以做到,应该如何处理呢?
g(theta, input)
g(theta + change, input)
g
theta
change
input