我正在尝试使用神经网络(PyTorch),但出现此错误。
RuntimeError:无效参数2:大小'[32 x 9216]'对于在/pytorch/aten/src/TH/THStorage.cpp:84
中具有8192个元素的输入无效
我的任务是关于使用AlexNet进行图像分类,并且我将错误归类为提供给神经网络的图像大小。我的问题是,考虑到具有其参数的网络体系结构,如何确定网络所需的正确图像大小?
按照下面的代码,我首先转换训练图像,然后再输入神经网络。但是我注意到神经网络只能接受224
的大小,否则它将给出上面的错误。例如,我的本能是使用大小为64的transforms.RandomResizedCrop
,但显然这是错误的。有确定所需尺寸的公式吗?
代码
# transformation to be done on images
transform_train = transforms.Compose([
transforms.RandomResizedCrop(64),
transforms.RandomHorizontalFlip(),
transforms.ToTensor(),
transforms.Normalize([0.485, 0.456, 0.406], [0.229, 0.224, 0.225])
])
class AlexNet(nn.Module):
def __init__(self, num_classes=1000):
super(AlexNet, self).__init__()
self.features = nn.Sequential(
nn.Conv2d(3, 64, kernel_size=11, stride=4, padding=2),
nn.ReLU(inplace=True),
nn.MaxPool2d(kernel_size=3, stride=2),
nn.Conv2d(64, 192, kernel_size=5, padding=2),
nn.ReLU(inplace=True),
nn.MaxPool2d(kernel_size=3, stride=2),
nn.Conv2d(192, 384, kernel_size=3, padding=1),
nn.ReLU(inplace=True),
nn.Conv2d(384, 256, kernel_size=3, padding=1),
nn.ReLU(inplace=True),
nn.Conv2d(256, 256, kernel_size=3, padding=1),
nn.ReLU(inplace=True),
nn.MaxPool2d(kernel_size=3, stride=2),
)
self.classifier = nn.Sequential(
nn.Dropout(),
nn.Linear(256 * 6 * 6, 4096),
nn.ReLU(inplace=True),
nn.Dropout(),
nn.Linear(4096, 4096),
nn.ReLU(inplace=True),
nn.Linear(4096, num_classes),
)
def forward(self, x):
x = self.features(x)
x = x.view(x.size(0), 256 * 6 * 6)
x = self.classifier(x)
return x
答案 0 :(得分:1)
我已经弄清楚了获得正确输入大小的算法。
Out = float(((W−F+2P)/S)+1)
其中
基于给定网络超参数的因素
我需要的要求图像尺寸为
W = (55 - 1) * 4 - 2(2) + 11
= 223
⩰ 224
答案 1 :(得分:1)
计算卷积层后输出形状的实际公式为:
out_size= floor((in_size + 2p -f)/s + 1)