调用不带.forward()的转发函数

时间:2019-03-04 18:17:52

标签: python pytorch

在查看姿势估计的一些pytorch代码AlphaPose时,我注意到一些不熟悉的语法:

基本上,我们定义一个Darknet类,该类继承nn.Module这样的属性:class Darknet(nn.Module)

这从一些配置文件重构了神经网络,并且还定义了加载预训练权重和前向传递的功能

现在,正向传递具有以下参数:

def forward(self, x, CUDA)

我应该注意,在类定义中,forward是唯一具有CUDA属性的方法(稍后将变得很重要)

在前向传递中,我们得到了预测:

for i in range(number_of_modules):
     x = self.module[i](x)

其中module[i]的构造如下:

module = nn.Sequential()
conv = nn.Conv2d(prev_fileters, filters, kernel_size, stride, pad, bias=bias)
module.add_module("conv_{0}".format(index), conv)

然后我们调用调用此模型,并(假设)这样的转发方法:

self.det_model = Darknet("yolo/cfg/yolov3-spp.cfg")
self.det_model.load_weights('models/yolo/yolov3-spp.weights')
self.det_model.cpu()
self.det_model.eval()

image = image.cpu()
prediction = self.det_model(img, CUDA = False)

我假设最后一行是正向传递的调用,但是为什么不使用.forward?这是pytorch专用的语法,还是我缺少一些基本的python原理?

1 个答案:

答案 0 :(得分:1)

这与割炬无关。当您以class_object(fn params)的名称进行调用时,它将调用该类的__call__方法。

如果您深入研究割炬的代码,特别是nn.Module,您将看到__call__在内部调用正向,但要注意pytorch允许的钩子和状态。因此,当您拨打self.det_model(img, cuda)时,您仍在转接。

请参见nn.module here的代码。