假设log_prob是向量而不是标量。以下代码将做什么? 谢谢!
```
optimizer = tf.train.AdamOptimizer(0.001)
minimize = optimizer.minimize(log_prob)
session.run(minimize, feed_dict={action : act, feat : s_batch})
```
答案 0 :(得分:0)
tf.gradients,因此Optimizer
minimize
调用,总和损失张量来获得标量而非计算雅可比行列式。请参阅TensorFlow中关于Jacobians的讨论背景:https://github.com/tensorflow/tensorflow/issues/675