我目前正在尝试修改VGG16网络体系结构,使其能够接受400x400 px的图像。
根据我已阅读的文献,实现此目的的方法是将完全连接的(FC)层转换为卷积(CONV)层。从本质上讲,这将“允许网络在较大的输入图像上有效地”滑动”并结合所有可用的上下文信息对图像的不同部分进行多次评估。”之后,使用平均池化层“将多个特征向量平均为一个汇总输入图像的单个特征向量”。
我已经完成了using this function,并提出了以下网络体系结构:
----------------------------------------------------------------
Layer (type) Output Shape Param #
================================================================
Conv2d-1 [-1, 64, 400, 400] 1,792
ReLU-2 [-1, 64, 400, 400] 0
Conv2d-3 [-1, 64, 400, 400] 36,928
ReLU-4 [-1, 64, 400, 400] 0
MaxPool2d-5 [-1, 64, 200, 200] 0
Conv2d-6 [-1, 128, 200, 200] 73,856
ReLU-7 [-1, 128, 200, 200] 0
Conv2d-8 [-1, 128, 200, 200] 147,584
ReLU-9 [-1, 128, 200, 200] 0
MaxPool2d-10 [-1, 128, 100, 100] 0
Conv2d-11 [-1, 256, 100, 100] 295,168
ReLU-12 [-1, 256, 100, 100] 0
Conv2d-13 [-1, 256, 100, 100] 590,080
ReLU-14 [-1, 256, 100, 100] 0
Conv2d-15 [-1, 256, 100, 100] 590,080
ReLU-16 [-1, 256, 100, 100] 0
MaxPool2d-17 [-1, 256, 50, 50] 0
Conv2d-18 [-1, 512, 50, 50] 1,180,160
ReLU-19 [-1, 512, 50, 50] 0
Conv2d-20 [-1, 512, 50, 50] 2,359,808
ReLU-21 [-1, 512, 50, 50] 0
Conv2d-22 [-1, 512, 50, 50] 2,359,808
ReLU-23 [-1, 512, 50, 50] 0
MaxPool2d-24 [-1, 512, 25, 25] 0
Conv2d-25 [-1, 512, 25, 25] 2,359,808
ReLU-26 [-1, 512, 25, 25] 0
Conv2d-27 [-1, 512, 25, 25] 2,359,808
ReLU-28 [-1, 512, 25, 25] 0
Conv2d-29 [-1, 512, 25, 25] 2,359,808
ReLU-30 [-1, 512, 25, 25] 0
MaxPool2d-31 [-1, 512, 12, 12] 0
Conv2d-32 [-1, 4096, 1, 1] 301,993,984
ReLU-33 [-1, 4096, 1, 1] 0
Dropout-34 [-1, 4096, 1, 1] 0
Conv2d-35 [-1, 4096, 1, 1] 16,781,312
ReLU-36 [-1, 4096, 1, 1] 0
Dropout-37 [-1, 4096, 1, 1] 0
Conv2d-38 [-1, 3, 1, 1] 12,291
AdaptiveAvgPool2d-39 [-1, 3, 1, 1] 0
Softmax-40 [-1, 3, 1, 1] 0
================================================================
Total params: 333,502,275
Trainable params: 318,787,587
Non-trainable params: 14,714,688
----------------------------------------------------------------
Input size (MB): 1.83
Forward/backward pass size (MB): 696.55
Params size (MB): 1272.21
Estimated Total Size (MB): 1970.59
----------------------------------------------------------------
我的问题很简单:最后使用平均池化层是否必要?好像到了最后一个卷积层,我们得到了一个具有3个通道的1x1图像。对此进行平均池合并似乎没有任何效果。
如果我的逻辑/体系结构中有任何问题,请随时指出。 谢谢!
答案 0 :(得分:3)
使用AdaptiveAvgPool2d
的目的是使convnet在任意大小的输入上工作(并产生固定大小的输出)。在您的情况下,由于输入尺寸固定为400x400,因此您可能不需要它。
我认为本文可能会为您提供一种更好的方法-https://arxiv.org/pdf/1406.4729v3.pdf
答案 1 :(得分:2)
如何将VGG转换为输入大小为400 x 400的除外?
第一种方法
VGG
样式体系结构的问题在于,我们正在对线性层中的输入和输出要素的数量进行硬编码。
即
vgg.classifier[0]: Linear(in_features=25088, out_features=4096, bias=True)
预计有25,088个输入功能。
如果我们传递尺寸为(3, 224, 224)
的图像
到vgg.features
,输出要素图将具有以下尺寸:
(512, 7, 7) => 512 * 7 * 7 => 25,088
如果我们将输入图像尺寸更改为(3, 400, 400)
并通过
到vgg.features
,输出要素图将具有以下尺寸:
(512, 12, 12) => 512 * 12 * 12 => 73,728
throws `sizemismatch` error.
解决此问题的一种方法是使用nn.AdaptiveAvgPool
代替nn.AvgPool
。 AdaptiveAvgPool有助于定义恒定的图层输出大小,而与通过vgg.features
图层的输入大小无关。
例如:
vgg.features[30] = nn.AdaptiveAvgPool(output_size=(7,7))
will make sure the final feature maps have a dimension of `(512, 7, 7)`
irrespective of the input size.
您可以在here中了解有关自适应池的更多信息。
第二种方法
如果您使用技术here将线性层转换为卷积层,则不必担心输入尺寸,但是由于数量的变化,您必须更改权重初始化技术。参数。
是否有必要在最后使用平均池化层?
否,在这种情况下。它不会改变输入要素图的大小,因此不会对一组节点进行平均。