我正在使用models.vgg16(pretrained=True)
模型进行图像分类,其中类别数= 3。
批处理大小为12 trainloader = torch.utils.data.DataLoader(train_data, batch_size=12, shuffle=True)
,因为错误提示Target size (torch.Size([12])) must be the same as input size (torch.Size([12, 1000]))
我更改了最后一个fc层参数,并将最后一个FC层更改为Linear(in_features=1000, out_features=3, bias=True)
损失函数为BCEWithLogitsLoss()
criterion = nn.BCEWithLogitsLoss()
optimizer = optim.SGD(vgg16.parameters(), lr=0.001, momentum=0.9)
培训代码为
# zero the parameter gradients
optimizer.zero_grad()
outputs = vgg16(inputs) #----> forward pass
loss = criterion(outputs, labels) #----> compute loss #error occurs here
loss.backward() #----> backward pass
optimizer.step() #----> weights update
计算损失时,出现此错误Target size (torch.Size([12])) must be the same as input size (torch.Size([12, 1000]))
代码可在以下网址获得:code
答案 0 :(得分:1)
尝试再次检查如何修改线性层。似乎该模型无法以某种方式向前传递。
您的模型输出每个样本有1000个输出大小,而应该有3个。这就是您无法评估损失的原因,因为您尝试将1000个类与3个进行比较。最后一层应该有3个输出,并且应该可以。
编辑
根据您在此处共享的代码:link,我认为有两个问题。
首先,您通过以下方式修改了模型:
# Load the pretrained model from pytorch
vgg16 = models.vgg16(pretrained=True)
vgg16.classifier[6].in_features = 1000
vgg16.classifier[6].out_features = 3
在这里所做的是在网络中添加一个图层作为属性,同时您还应该修改模型的forward()
功能。在将输入向前传递时,将图层添加为列表中的属性不会应用该图层。
通常,正确执行此操作的方法是定义一个新类,该类继承自要实现的模型-class myvgg16(models.vgg16)
,或更常见的是class myvgg(nn.Module)
。您可以在以下link
如果失败,请尝试unsqueeze(1)
目标大小(即lables变量)。这不太可能是导致错误的原因,但值得一试。
编辑
再次尝试将目标张量转换为一个热向量。并在BCELoss接收浮点时将张量类型更改为Float。
答案 1 :(得分:1)
共享模型代码,这很容易调试。问题肯定出在您的最后一个完全连接的层中。大小不匹配清楚地表明,每12个图像(批处理大小)您将获得1000个功能,但是您有12个要比较的功能。
完全连接的层有问题。
使用它,您将解决问题-
vgg16 = models.vgg16(pretrained=True)
vgg16.classifier[6]= nn.Linear(4096, 3)
if __name__ == "__main__":
from torchsummary import summary
model = vgg16
model = model.cuda()
print(model)
summary(model, input_size = (3,120,120))
----------------------------------------------------------------
Layer (type) Output Shape Param #
================================================================
Conv2d-1 [-1, 64, 120, 120] 1,792
ReLU-2 [-1, 64, 120, 120] 0
Conv2d-3 [-1, 64, 120, 120] 36,928
ReLU-4 [-1, 64, 120, 120] 0
MaxPool2d-5 [-1, 64, 60, 60] 0
Conv2d-6 [-1, 128, 60, 60] 73,856
ReLU-7 [-1, 128, 60, 60] 0
Conv2d-8 [-1, 128, 60, 60] 147,584
ReLU-9 [-1, 128, 60, 60] 0
MaxPool2d-10 [-1, 128, 30, 30] 0
Conv2d-11 [-1, 256, 30, 30] 295,168
ReLU-12 [-1, 256, 30, 30] 0
Conv2d-13 [-1, 256, 30, 30] 590,080
ReLU-14 [-1, 256, 30, 30] 0
Conv2d-15 [-1, 256, 30, 30] 590,080
ReLU-16 [-1, 256, 30, 30] 0
MaxPool2d-17 [-1, 256, 15, 15] 0
Conv2d-18 [-1, 512, 15, 15] 1,180,160
ReLU-19 [-1, 512, 15, 15] 0
Conv2d-20 [-1, 512, 15, 15] 2,359,808
ReLU-21 [-1, 512, 15, 15] 0
Conv2d-22 [-1, 512, 15, 15] 2,359,808
ReLU-23 [-1, 512, 15, 15] 0
MaxPool2d-24 [-1, 512, 7, 7] 0
Conv2d-25 [-1, 512, 7, 7] 2,359,808
ReLU-26 [-1, 512, 7, 7] 0
Conv2d-27 [-1, 512, 7, 7] 2,359,808
ReLU-28 [-1, 512, 7, 7] 0
Conv2d-29 [-1, 512, 7, 7] 2,359,808
ReLU-30 [-1, 512, 7, 7] 0
MaxPool2d-31 [-1, 512, 3, 3] 0
AdaptiveAvgPool2d-32 [-1, 512, 7, 7] 0
Linear-33 [-1, 4096] 102,764,544
ReLU-34 [-1, 4096] 0
Dropout-35 [-1, 4096] 0
Linear-36 [-1, 4096] 16,781,312
ReLU-37 [-1, 4096] 0
Dropout-38 [-1, 4096] 0
Linear-39 [-1, 3] 12,291
================================================================
Total params: 134,272,835
Trainable params: 134,272,835
Non-trainable params: 0
----------------------------------------------------------------
Input size (MB): 0.16
Forward/backward pass size (MB): 62.84
Params size (MB): 512.21
Estimated Total Size (MB): 575.21