最近,我做了一个关于使用tf.layers.batch_normalization(input, training=True)
和using tf.layers.batch_normalization(input)
的实验,两种情况都在训练期间。
但是发生了一些奇怪的事情。如果我使用tf.layers.batch_normalization(input, training=True)
,tfevent file
创建的tf.summary
大约为400MB,但如果我使用tf.layers.batch_normalization(input)
,那个文件只有大约20MB,我无法理解那个,谁能帮我解决这个问题,谢谢!
答案 0 :(得分:0)
正如所解释的here批量标准化在培训verus测试时间期间具有不同的行为:
在测试阶段,您可以根据小批量统计数据标准化图层激活,而在测试中,您可以根据估计的人口统计数据进行标准化。
此行为由training
参数控制,如TensorFlow's documentation中所述。
因此,在测试期间,存储的信息很少。但是,您不应该将其设置为培训目的。
希望这有帮助!