在查看姿势估计的一些pytorch代码AlphaPose时,我注意到一些不熟悉的语法:
基本上,我们定义一个Darknet
类,该类继承nn.Module
这样的属性:class Darknet(nn.Module)
这从一些配置文件重构了神经网络,并且还定义了加载预训练权重和前向传递的功能
现在,正向传递具有以下参数:
def forward(self, x, CUDA)
我应该注意,在类定义中,forward是唯一具有CUDA属性的方法(稍后将变得很重要)
在前向传递中,我们得到了预测:
for i in range(number_of_modules):
x = self.module[i](x)
其中module[i]
的构造如下:
module = nn.Sequential()
conv = nn.Conv2d(prev_fileters, filters, kernel_size, stride, pad, bias=bias)
module.add_module("conv_{0}".format(index), conv)
然后我们调用调用此模型,并(假设)这样的转发方法:
self.det_model = Darknet("yolo/cfg/yolov3-spp.cfg")
self.det_model.load_weights('models/yolo/yolov3-spp.weights')
self.det_model.cpu()
self.det_model.eval()
image = image.cpu()
prediction = self.det_model(img, CUDA = False)
我假设最后一行是正向传递的调用,但是为什么不使用.forward
?这是pytorch专用的语法,还是我缺少一些基本的python原理?
答案 0 :(得分:1)
这与割炬无关。当您以class_object(fn params)
的名称进行调用时,它将调用该类的__call__
方法。
如果您深入研究割炬的代码,特别是nn.Module
,您将看到__call__
在内部调用正向,但要注意pytorch允许的钩子和状态。因此,当您拨打self.det_model(img, cuda)
时,您仍在转接。
请参见nn.module here的代码。