AttributeError:尝试使用Pytorchs AlexNet Lighting预处理时,“图像”对象没有属性“新”

时间:2018-08-04 12:50:03

标签: python pytorch

我尝试使用inceptionAlexnet像预处理一样在Pytorch上训练模型。我使用了Fast-ai imagenet training script提供的脚本。 inception支持AlexNet像预处理一样,但是对于Lighting的{​​{1}},我们必须自己实现:

__imagenet_pca = {
    'eigval': torch.Tensor([0.2175, 0.0188, 0.0045]),
    'eigvec': torch.Tensor([
        [-0.5675,  0.7192,  0.4009],
        [-0.5808, -0.0045, -0.8140],
        [-0.5836, -0.6948,  0.4203],
    ])
}

# Lighting data augmentation taken from here - https://github.com/eladhoffer/convNet.pytorch/blob/master/preprocess.py
class Lighting(object):
    """Lighting noise(AlexNet - style PCA - based noise)"""

    def __init__(self, alphastd, eigval, eigvec):
        self.alphastd = alphastd
        self.eigval = eigval
        self.eigvec = eigvec

    def __call__(self, img):
        if self.alphastd == 0:
            return img

        alpha = img.new().resize_(3).normal_(0, self.alphastd)
        rgb = self.eigvec.type_as(img).clone()\
            .mul(alpha.view(1, 3).expand(3, 3))\
            .mul(self.eigval.view(1, 3).expand(3, 3))\
            .sum(1).squeeze()
        return img.add(rgb.view(3, 1, 1).expand_as(img))

最终被这样使用:

train_tfms = transforms.Compose([
        transforms.RandomResizedCrop(size),
        transforms.RandomHorizontalFlip(),
        transforms.ColorJitter(.4,.4,.4),
        transforms.ToTensor(),
        Lighting(0.1, __imagenet_pca['eigval'], __imagenet_pca['eigvec']),
        normalize,
    ])
    train_dataset = datasets.ImageFolder(traindir, train_tfms)
    train_sampler = (torch.utils.data.distributed.DistributedSampler(train_dataset)
                     if args.distributed else None)
    train_loader = torch.utils.data.DataLoader(
        train_dataset, batch_size=args.batch_size, shuffle=(train_sampler is None),
        num_workers=args.workers, pin_memory=True, sampler=train_sampler)

但是,问题是,每当我运行脚本时,我都会得到:

  

'AttributeError:'图像'对象没有属性'新建'

对此行抱怨的人

alpha = img.new().resize_(3).normal_(0, self.alphastd)

我不知道为什么会这样。顺便说一下,我正在使用Pytorch 0.4。

1 个答案:

答案 0 :(得分:0)

由于@iacolippo的评论,我终于找到了原因!

与我在此处编写的示例不同,在我的实际脚本中,我在transforms.ToTensor()方法之后使用了lighting()。这样做导致PIL图像作为lightining()的输入被发送,这需要张量,这就是发生错误的原因。

因此,我在问题中发布的代码段基本上是正确的,并且在调用.ToTensor之前必须先使用Lighting()