TensorFlow似乎没有通过reduce_mean
进行反向传播,它使用图优化直接通过批量损失函数进行反向传播。
使用tf.graph_util.extract_subgraph()
检查子图时,这会引起问题,因为loss_op
不再是train_op
的下游操作。有什么方法可以减轻这种情况,或者指出发生这种情况的原因?
loss_op = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits_v2(logits=logits, labels=Y))
optimizer = tf.compat.v1.train.AdamOptimizer(learning_rate=learning_rate)
train_op = optimizer.minimize(loss_op)
sess.run(train_op)