Batch Norm是否需要恒定的批量大小?

时间:2016-05-07 16:37:47

标签: deep-learning

Batch normalization使用小批量均值和方差来标准化图层输出。如果我训练一个具有批量大小的网络,比如100,但是然后想要在单次预测(批量大小为1)上使用经过训练的网络,我是否应该遇到问题? 我是否应该在学习期间惩罚批量规范层以收敛身份转换以避免这种情况?

1 个答案:

答案 0 :(得分:4)

不,这样做没有问题,在测试时批量标准化层只是根据训练时学到的因素来缩放和移动输入。