为什么纸层规范化讨论了不同规范化方案的不变性?

时间:2017-10-23 07:44:00

标签: deep-learning normalization

当我阅读论文Layer Normalization中的“相关工作”部分时,它只是分析其不变性属性,并将其与其他规范化方法(如批量规范化)进行比较。但是本文没有具体说明这个属性如何影响整个神经网络,如CNN或RNN。您能否告诉我有关NN中归一化不变性的影响或重要性的更多细节,谢谢。

0 个答案:

没有答案