批次归一化与批次重新归一化

时间:2018-08-06 22:02:49

标签: tensorflow machine-learning keras deep-learning batch-normalization

作为一个没有统计学背景的人,有人可以向我解释批量重新归一化旨在解决的批量归一化的主要限制,尤其是在与批量归一化有何不同方面?

1 个答案:

答案 0 :(得分:6)

非常简短地,批次归一化仅将每个批次重新缩放为相同的均值和偏差。每批都独立缩放。批处理重新归一化包括先前的归一化参数,作为新计算的一部分,因此,每个批处理都归一化为所有批处理通用的标准。这渐近地接近全局归一化,以防止偏离中心的批次使训练偏离所需的中心。