说我有4批输入的3x100x100图像作为输入,我正在尝试用pytorch制作我的第一个卷积神经网络。我真的不确定是否可以正确使用卷积神经网络,因为当我通过以下方式训练输入时,我会遇到错误:
Expected input batch_size (1) to match target batch_size (4).
以下是我的转发nnet:
然后如果我要通过它:
nn.Conv2d(3, 6, 5)
我会得到6层地图,每个地图的尺寸为(100-5 + 1)。
然后如果我要通过它:
nn.MaxPool2d(2, 2)
我会得到6层地图,每个地图的尺寸为(96/2)
然后,如果我要通过它:
nn.Conv2d(6, 16, 5)
我将获得16层尺寸为(48-5 + 1)的地图
然后如果我要通过它:
self.fc1 = nn.Linear(44*44*16, 120)
我会得到120个神经元
然后如果我要通过它:
self.fc2 = nn.Linear(120, 84)
我将获得84个神经元
然后如果我要通过它:
self.fc3 = nn.Linear(84, 3)
我将获得3个输出,这是完美的,因为我有3类标签。但是,正如我之前说的那样,这会导致错误,这确实令人惊讶,因为这对我来说很有意义。
完整的神经网络代码:
import torch.nn as nn
import torch.nn.functional as F
class Net(nn.Module):
def __init__(self):
super(Net, self).__init__()
self.conv1 = nn.Conv2d(3, 6, 5)
self.pool = nn.MaxPool2d(2, 2)
self.conv2 = nn.Conv2d(6, 16, 5)
self.fc1 = nn.Linear(44*44*16, 120)
self.fc2 = nn.Linear(120, 84)
self.fc3 = nn.Linear(84, 3)
def forward(self, x):
x = self.pool(F.relu(self.conv1(x)))
x = self.pool(F.relu(self.conv2(x)))
x = x.view(-1, 16 *44*44)
x = F.relu(self.fc1(x))
x = F.relu(self.fc2(x))
x = self.fc3(x)
return x
net = Net()
net.to(device)
答案 0 :(得分:2)
您的理解是正确且非常详细的。
但是,您已经使用了两个池化层(请参见下面的相关代码)。因此,第二步之后的输出将是具有44/2=22
维的16张地图。
x = self.pool(F.relu(self.conv1(x)))
x = self.pool(F.relu(self.conv2(x)))
要解决此问题,请不要合并或将完全连接的图层的尺寸更改为22*22*16
。
要通过不合并解决此问题,请按以下说明修改转发功能。
def forward(self, x):
x = self.pool(F.relu(self.conv1(x)))
x = F.relu(self.conv2(x))
x = x.view(-1, 16 *44*44)
x = F.relu(self.fc1(x))
x = F.relu(self.fc2(x))
x = self.fc3(x)
return x
要通过更改全连接层的尺寸进行修复,请如下更改网络声明。
def __init__(self):
super(Net, self).__init__()
self.conv1 = nn.Conv2d(3, 6, 5)
self.pool = nn.MaxPool2d(2, 2)
self.conv2 = nn.Conv2d(6, 16, 5)
self.fc1 = nn.Linear(22*22*16, 120)
self.fc2 = nn.Linear(120, 84)
self.fc3 = nn.Linear(84, 10)