我尝试使用inception
和Alexnet
像预处理一样在Pytorch
上训练模型。我使用了Fast-ai imagenet training script提供的脚本。 inception
支持AlexNet
像预处理一样,但是对于Lighting
的{{1}},我们必须自己实现:
__imagenet_pca = {
'eigval': torch.Tensor([0.2175, 0.0188, 0.0045]),
'eigvec': torch.Tensor([
[-0.5675, 0.7192, 0.4009],
[-0.5808, -0.0045, -0.8140],
[-0.5836, -0.6948, 0.4203],
])
}
# Lighting data augmentation taken from here - https://github.com/eladhoffer/convNet.pytorch/blob/master/preprocess.py
class Lighting(object):
"""Lighting noise(AlexNet - style PCA - based noise)"""
def __init__(self, alphastd, eigval, eigvec):
self.alphastd = alphastd
self.eigval = eigval
self.eigvec = eigvec
def __call__(self, img):
if self.alphastd == 0:
return img
alpha = img.new().resize_(3).normal_(0, self.alphastd)
rgb = self.eigvec.type_as(img).clone()\
.mul(alpha.view(1, 3).expand(3, 3))\
.mul(self.eigval.view(1, 3).expand(3, 3))\
.sum(1).squeeze()
return img.add(rgb.view(3, 1, 1).expand_as(img))
最终被这样使用:
train_tfms = transforms.Compose([
transforms.RandomResizedCrop(size),
transforms.RandomHorizontalFlip(),
transforms.ColorJitter(.4,.4,.4),
transforms.ToTensor(),
Lighting(0.1, __imagenet_pca['eigval'], __imagenet_pca['eigvec']),
normalize,
])
train_dataset = datasets.ImageFolder(traindir, train_tfms)
train_sampler = (torch.utils.data.distributed.DistributedSampler(train_dataset)
if args.distributed else None)
train_loader = torch.utils.data.DataLoader(
train_dataset, batch_size=args.batch_size, shuffle=(train_sampler is None),
num_workers=args.workers, pin_memory=True, sampler=train_sampler)
但是,问题是,每当我运行脚本时,我都会得到:
'AttributeError:'图像'对象没有属性'新建'
对此行抱怨的人
alpha = img.new().resize_(3).normal_(0, self.alphastd)
我不知道为什么会这样。顺便说一下,我正在使用Pytorch 0.4。
答案 0 :(得分:0)
由于@iacolippo的评论,我终于找到了原因!
与我在此处编写的示例不同,在我的实际脚本中,我在transforms.ToTensor()
方法之后使用了lighting()
。这样做导致PIL
图像作为lightining()
的输入被发送,这需要张量,这就是发生错误的原因。
因此,我在问题中发布的代码段基本上是正确的,并且在调用.ToTensor
之前必须先使用Lighting()
。