TF渐变不会流过tf.reduce_mean

时间:2019-10-23 23:47:18

标签: tensorflow tensorboard

TensorFlow似乎没有通过reduce_mean进行反向传播,它使用图优化直接通过批量损失函数进行反向传播。

使用tf.graph_util.extract_subgraph()检查子图时,这会引起问题,因为loss_op不再是train_op的下游操作。有什么方法可以减轻这种情况,或者指出发生这种情况的原因?

loss_op = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits_v2(logits=logits, labels=Y))
optimizer = tf.compat.v1.train.AdamOptimizer(learning_rate=learning_rate)
train_op = optimizer.minimize(loss_op)
sess.run(train_op)

TensorBoard graph

0 个答案:

没有答案