我正从Keras转到PyTorch,并且很难创建模型的图形可视化。在Keras中,您可以简单地调用plot_model()
,该函数将使用graphviz
生成漂亮的图形。
但是,在PyTorch中并不是那么容易。我已经看到有很多可用的工具,例如TorchViz,但是它们都要求您将一些输入传递给模型。例如:
torchviz
包:x = torch.zeros(1, 3, 224, 224, dtype=torch.float, requires_grad=False)
out = resnet(x)
make_dot(out)
model = torchvision.models.vgg16()
g = hl.build_graph(model, torch.zeros([1, 3, 224, 224]))
所以我的问题是:假设我下载了一个几乎没有文档的预训练模型。如何确定要运行这些可视化功能所需的虚拟输入尺寸?
例如,当我print()
使用AlexNet模型时,下面结果的哪一部分告诉我输入应为[1, 3, 224, 224]
?
model = torchvision.models.alexnet(pretrained=True)
print(model)
# AlexNet(
# (features): Sequential(
# (0): Conv2d(3, 64, kernel_size=(11, 11), stride=(4, 4), padding=(2, 2))
# (1): ReLU(inplace=True)
# (2): MaxPool2d(kernel_size=3, stride=2, padding=0, dilation=1, ceil_mode=False)
# (3): Conv2d(64, 192, kernel_size=(5, 5), stride=(1, 1), padding=(2, 2))
# (4): ReLU(inplace=True)
# (5): MaxPool2d(kernel_size=3, stride=2, padding=0, dilation=1, ceil_mode=False)
# (6): Conv2d(192, 384, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
# (7): ReLU(inplace=True)
# (8): Conv2d(384, 256, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
# (9): ReLU(inplace=True)
# (10): Conv2d(256, 256, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
# (11): ReLU(inplace=True)
# (12): MaxPool2d(kernel_size=3, stride=2, padding=0, dilation=1, ceil_mode=False)
# )
# (avgpool): AdaptiveAvgPool2d(output_size=(6, 6))
# (classifier): Sequential(
# (0): Dropout(p=0.5, inplace=False)
# (1): Linear(in_features=9216, out_features=4096, bias=True)
# (2): ReLU(inplace=True)
# (3): Dropout(p=0.5, inplace=False)
# (4): Linear(in_features=4096, out_features=4096, bias=True)
# (5): ReLU(inplace=True)
# (6): Linear(in_features=4096, out_features=1000, bias=True)
# )
# )
第一层说:Conv2d(3, 64, kernel_size=(11, 11), stride=(4, 4), padding=(2, 2))
。从这个事实中我怎么知道我需要创建[1, 3, 224, 224]
输入?