为什么设置training = True时tf.layers.batch_normalization表现良好,在测试阶段设置training = False时执行异常?

时间:2018-06-13 00:12:28

标签: python tensorflow batch-normalization

我知道它应该在测试阶段设置training = False,但是我得到的结果非常糟糕,接近0,甚至提供训练数据。如果我在测试阶段设置training = True,则测试数据的准确度接近100%。

我在训练阶段添加了依赖项,即

`update_ops = tf.get_collection(tf.GraphKeys.UPDATE_OPS)
 with tf.control_dependencies(update_ops):
        train_op = tf.train.AdamOptimizer(learning_rate=args.lr).minimize(loss=self.loss, global_step=global_step)`

0 个答案:

没有答案