我正在阅读Deep MNIST for Experts并在此处提出问题:
在本教程中,它使用代码构建第一个卷积层:
W_conv1 = weight_variable([5, 5, 1, 32])
b_conv1 = bias_variable([32])
构建第二个卷积层时,本教程使用以下代码:
W_conv2 = weight_variable([5, 5, 32, 64])
b_conv2 = bias_variable([64])
并说:
第二层将为每个5x5补丁提供64个功能。
我无法理解为什么[5,5,32,64]的第三维是32。
这是否意味着第二个卷积层与第一个卷积层的所有32个输出进行卷积?
但是当检查这个3D Visualization of a Convolutional Neural Network时,第二个卷积层的每个滤波器只是连接到第一个卷积层的某些输出,我曾经认为这是几个不同较低特征的集成并产生一些更高的特征,那有什么区别?
抱歉我的表情很差,现在我很困惑。
谢谢!
答案 0 :(得分:1)
卷积(至少在卷积神经网络的上下文中)通常执行深度,这意味着新特征映射的每个单元格都是一个“点”产品'在特定内核和输入要素图的相应部分之间,但是使用了所有可用的通道。