新功能tf.nn.softmax_cross_entropy_with_logits_v2的原因是什么?

时间:2018-03-26 08:19:52

标签: tensorflow softmax cross-entropy

Tensorflow功能非常棒。

  

tf.nn.softmax_cross_entropy_with_logits

后来我看到了另一个功能,

  

tf.nn.softmax_cross_entropy_with_logits_v2

这个新功能的原因是什么?

使用早期功能Tensorflow说,

  

TensorFlow的未来主要版本将允许渐变流入   默认情况下,在backprop上输入标签。

     

见tf.nn.softmax_cross_entropy_with_logits_v2。

我不明白它究竟意味着什么。但是功能的定义是相同的。

tf.nn.softmax_cross_entropy_with_logits_v2(
    _sentinel=None,
    labels=None,
    logits=None,
    dim=-1,
    name=None
)

这些文件有点过头了(因为它们也有点相同)。还有更好的解释吗?

0 个答案:

没有答案