所以基本上这是训练有素的caffenet的权重维度:
conv1:(96,3,11,11) conv2:(256,48,5,5) conv3:(384,256,3,3) conv4:(384,192,3,3) conv5:(256,192,3,3)
我很困惑,尽管conv1给出96个通道作为输出,为什么conv2在卷积时只考虑48?我错过了什么吗?
答案 0 :(得分:0)
是的,您错过了参数' group'。 conv2层中定义的convolution_param如下所示。你可以发现参数组设置为2作为分组,卷积层可以节省gpu内存。
convolution_param {
num_output: 256
pad: 2
kernel_size: 5
group: 2
weight_filler {
type: "gaussian"
std: 0.01
}
bias_filler {
type: "constant"
value: 1
}