反向传播会在标签中发生什么意义?

时间:2018-03-16 03:37:13

标签: python tensorflow

我今天收到了警告,它说

  

softmax_cross_entropy_with_logits(来自tensorflow.python.ops.nn_ops)已弃用,将在以后的版本中删除。   更新说明:

     

TensorFlow的未来主要版本将允许渐变流动   默认情况下进入backprop上的标签输入。

然后我按照建议检查了tf.nn.softmax_cross_entropy_with_logits_v2,并在

下面找到了一些内容
  

反向传播将发生在logits和标签中。要禁止反向传播到标签中,请先将标签张量通过stop_gradients传递给此函数。

我不太明白反向传播会发生在标签上是什么意思,标签是否设置为常量?

1 个答案:

答案 0 :(得分:7)

查看以下链接,有人问了一个类似的问题并得到了一个很好的答案。

https://stats.stackexchange.com/questions/327348/how-is-softmax-cross-entropy-with-logits-different-from-softmax-cross-entropy-wi