为什么Deep残余网络中的每个块都有两个卷积层而不是一个?

时间:2018-03-15 07:09:14

标签: machine-learning deep-learning conv-neural-network deeplearning4j deep-residual-networks

enter image description here

该图显示了剩余网络的基本块。它有两个卷积层?当它只有一个卷积层时会发生什么?

1 个答案:

答案 0 :(得分:1)

它应该仍然可以使用一些类似的结果。跳过一层没有问题。

参见https://openreview.net/forum?id=HkwBEMWCZ 和密集网https://arxiv.org/abs/1608.06993