tensorflow.train.AdamOptimizer中的损失是否一定为正值?

时间:2018-08-26 20:08:27

标签: python tensorflow loss

我的问题很简单:我的目的是使损失= a-b最小化,理想情况下,损失应尽可能为负数。 b比a大得多。

由于在所有示例中,损失都是正的,所以我想问一下是否可以将损失输入到compute_gradients中并获得所需的结果。 干杯

1 个答案:

答案 0 :(得分:0)

可以。只要是最小化而不是最大化,一切都应该与示例中的完全相同。