当损失是一个向量时,tf.trian.optimizer的行为是什么

时间:2017-03-12 22:36:48

标签: optimization tensorflow

假设log_prob是向量而不是标量。以下代码将做什么? 谢谢!

```

optimizer = tf.train.AdamOptimizer(0.001)
minimize = optimizer.minimize(log_prob)
session.run(minimize, feed_dict={action : act, feat : s_batch})

```

1 个答案:

答案 0 :(得分:0)

tf.gradients,因此Optimizer minimize调用,总和损失张量来获得标量而非计算雅可比行列式。请参阅TensorFlow中关于Jacobians的讨论背景:https://github.com/tensorflow/tensorflow/issues/675