在CNN模型中放置BatchNormalization(BN)层和LeakyRelu

时间:2018-08-22 08:27:40

标签: tensorflow machine-learning keras deep-learning batch-normalization

关于BN层的顺序和激活函数here的争论很多。与此相关的我也有一个困惑。在我的CNN模型中,我有5个卷积层,前两层是Convolution->BN->Activation,后三层是Convolution->Activation->BN。通过这种组合,我获得了最大的准确性。我尝试了所有其他组合,但是只有这种组合的帮助,我才能获得最高的准确性。因此,仅是我的应用程序问题,还是在模型的最后几层中将激活函数放在BN层之前可以有一些逻辑,这会带来更高的准确性。因为在original纸上aurthor清楚地提到了激活前BN的放置。我正在做keras

0 个答案:

没有答案