Pytorch:修改VGG16架构

时间:2018-11-02 08:15:10

标签: computer-vision conv-neural-network pytorch vgg-net

我目前正在尝试修改VGG16网络体系结构,使其能够接受400x400 px的图像。

根据我已阅读的文献,实现此目的的方法是将完全连接的(FC)层转换为卷积(CONV)层。从本质上讲,这将“允许网络在较大的输入图像上有效地”滑动”并结合所有可用的上下文信息对图像的不同部分进行多次评估。”之后,使用平均池化层“将多个特征向量平均为一个汇总输入图像的单个特征向量”。

我已经完成了using this function,并提出了以下网络体系结构:

----------------------------------------------------------------
        Layer (type)               Output Shape         Param #
================================================================
            Conv2d-1         [-1, 64, 400, 400]           1,792
              ReLU-2         [-1, 64, 400, 400]               0
            Conv2d-3         [-1, 64, 400, 400]          36,928
              ReLU-4         [-1, 64, 400, 400]               0
         MaxPool2d-5         [-1, 64, 200, 200]               0
            Conv2d-6        [-1, 128, 200, 200]          73,856
              ReLU-7        [-1, 128, 200, 200]               0
            Conv2d-8        [-1, 128, 200, 200]         147,584
              ReLU-9        [-1, 128, 200, 200]               0
        MaxPool2d-10        [-1, 128, 100, 100]               0
           Conv2d-11        [-1, 256, 100, 100]         295,168
             ReLU-12        [-1, 256, 100, 100]               0
           Conv2d-13        [-1, 256, 100, 100]         590,080
             ReLU-14        [-1, 256, 100, 100]               0
           Conv2d-15        [-1, 256, 100, 100]         590,080
             ReLU-16        [-1, 256, 100, 100]               0
        MaxPool2d-17          [-1, 256, 50, 50]               0
           Conv2d-18          [-1, 512, 50, 50]       1,180,160
             ReLU-19          [-1, 512, 50, 50]               0
           Conv2d-20          [-1, 512, 50, 50]       2,359,808
             ReLU-21          [-1, 512, 50, 50]               0
           Conv2d-22          [-1, 512, 50, 50]       2,359,808
             ReLU-23          [-1, 512, 50, 50]               0
        MaxPool2d-24          [-1, 512, 25, 25]               0
           Conv2d-25          [-1, 512, 25, 25]       2,359,808
             ReLU-26          [-1, 512, 25, 25]               0
           Conv2d-27          [-1, 512, 25, 25]       2,359,808
             ReLU-28          [-1, 512, 25, 25]               0
           Conv2d-29          [-1, 512, 25, 25]       2,359,808
             ReLU-30          [-1, 512, 25, 25]               0
        MaxPool2d-31          [-1, 512, 12, 12]               0
           Conv2d-32           [-1, 4096, 1, 1]     301,993,984
             ReLU-33           [-1, 4096, 1, 1]               0
          Dropout-34           [-1, 4096, 1, 1]               0
           Conv2d-35           [-1, 4096, 1, 1]      16,781,312
             ReLU-36           [-1, 4096, 1, 1]               0
          Dropout-37           [-1, 4096, 1, 1]               0
           Conv2d-38              [-1, 3, 1, 1]          12,291
AdaptiveAvgPool2d-39              [-1, 3, 1, 1]               0
          Softmax-40              [-1, 3, 1, 1]               0
================================================================
Total params: 333,502,275
Trainable params: 318,787,587
Non-trainable params: 14,714,688
----------------------------------------------------------------
Input size (MB): 1.83
Forward/backward pass size (MB): 696.55
Params size (MB): 1272.21
Estimated Total Size (MB): 1970.59
----------------------------------------------------------------

我的问题很简单:最后使用平均池化层是否必要?好像到了最后一个卷积层,我们得到了一个具有3个通道的1x1图像。对此进行平均池合并似乎没有任何效果。

如果我的逻辑/体系结构中有任何问题,请随时指出。 谢谢!

2 个答案:

答案 0 :(得分:3)

使用AdaptiveAvgPool2d的目的是使convnet在任意大小的输入上工作(并产生固定大小的输出)。在您的情况下,由于输入尺寸固定为400x400,因此您可能不需要它。

我认为本文可能会为您提供一种更好的方法-https://arxiv.org/pdf/1406.4729v3.pdf

答案 1 :(得分:2)

  

如何将VGG转换为输入大小为400 x 400的除外?

第一种方法

VGG样式体系结构的问题在于,我们正在对线性层中的输入和输出要素的数量进行硬编码。 即

vgg.classifier[0]: Linear(in_features=25088, out_features=4096, bias=True)

预计有25,088个输入功能。

如果我们传递尺寸为(3, 224, 224)的图像 到vgg.features,输出要素图将具有以下尺寸:

(512, 7, 7) => 512 * 7 * 7 => 25,088

如果我们将输入图像尺寸更改为(3, 400, 400)并通过 到vgg.features,输出要素图将具有以下尺寸:

(512, 12, 12) => 512 * 12 * 12 =>  73,728

throws `sizemismatch` error.

解决此问题的一种方法是使用nn.AdaptiveAvgPool代替nn.AvgPool。 AdaptiveAvgPool有助于定义恒定的图层输出大小,而与通过vgg.features图层的输入大小无关。

例如:

vgg.features[30] = nn.AdaptiveAvgPool(output_size=(7,7))

will make sure the final feature maps have a dimension of `(512, 7, 7)` 
irrespective of the input size.

您可以在here中了解有关自适应池的更多信息。

第二种方法

如果您使用技术here将线性层转换为卷积层,则不必担心输入尺寸,但是由于数量的变化,您必须更改权重初始化技术。参数。

  

是否有必要在最后使用平均池化层?

否,在这种情况下。它不会改变输入要素图的大小,因此不会对一组节点进行平均。