张量流中的残差学习

时间:2017-10-30 18:19:55

标签: python tensorflow deep-learning conv-neural-network deep-residual-networks

inception layer

我试图从研究论文中复制这个图像。在图像中,橙色箭头表示使用残差学习的快捷方式,红色边框表示扩散卷积。

在下面的代码中,r5是图像中看到的relu的结果。为简单起见,我在relu和dilation层之间排除了代码。 在张量流中,如何正确组合relu和扩张卷积的结果来执行剩余的快捷方式?

#relu layer
r5 = tf.nn.relu(layer5)
...
#dilation layer
h_conv4 = conv3d_dilation(concat1, 1154)

1 个答案:

答案 0 :(得分:3)

图片非常简单 - 它说你应该添加它们,所以:

#relu layer
r5 = tf.nn.relu(layer5)
...
#dilation layer
h_conv4 = conv3d_dilation(concat1, 1154)

#combined
combined = r5 + h_conv4