对于pytorch模型,我发现this tutorial解释了如何对图像进行分类。我尝试将相同的程序应用于初始模型。但是,对于我在
中加载的每个图像,模型都会失败代码:
# some people need these three lines to make it work
#from torchvision.models.inception import model_urls
#name = 'inception_v3_google'
#model_urls[name] = model_urls[name].replace('https://', 'http://')
from torch.autograd import Variable
import torchvision
import requests
from torchvision import models, transforms
from PIL import Image
import io
from PIL import Image
LABELS_URL = 'https://s3.amazonaws.com/outcome-blog/imagenet/labels.json'
# cat
IMG_URL1 = 'http://farm2.static.flickr.com/1029/762542019_4f197a0de5.jpg'
# dog
IMG_URL2 = 'http://farm3.static.flickr.com/2314/2518519714_98b01968ee.jpg'
# lion
IMG_URL3 = 'http://farm1.static.flickr.com/62/218998565_62930f10fc.jpg'
labels = {int(key):value for (key, value)
in requests.get(LABELS_URL).json().items()}
model = torchvision.models.inception_v3(pretrained=True)
model.training = False
model.transform_input = False
def predict_url_img(url):
response = requests.get(url)
img_pil = Image.open(io.BytesIO(response.content))
normalize = transforms.Normalize(
mean=[0.485, 0.456, 0.406],
std=[0.229, 0.224, 0.225]
)
preprocess = transforms.Compose([
transforms.Scale(256),
transforms.CenterCrop(299),
transforms.ToTensor(),
normalize
])
img_tensor = preprocess(img_pil)
img_tensor.unsqueeze_(0)
img_variable = Variable(img_tensor)
fc_out = model(img_variable)
print("prediction:", labels[fc_out.data.numpy().argmax()])
predict_url_img(IMG_URL1)
predict_url_img(IMG_URL2)
predict_url_img(IMG_URL3)
作为输出,我得到了这个:
('预测:',你"柱塞,水管工'帮助")
('预测:',你'塑料袋')
('预测:',你"柱塞,水管工'帮助")
答案 0 :(得分:1)
我发现在应用模型之前需要调用model.eval()
。由于批量标准化和退出层,模型在培训和测试方面有所不同。
答案 1 :(得分:0)
我执行了添加model.eval()
行的代码并获得了:
('prediction:', u'Egyptian cat')
('prediction:', u'groenendael')
('prediction:', u'lion, king of beasts, Panthera leo')
但是,如果我更改预处理(只是删除normalize
操作并设置model.transform_input = True
以使用PyTorch中的Inception v3的默认预处理),结果会略有不同:
('prediction:', u'tiger cat')
('prediction:', u'Border collie')
('prediction:', u'lion, king of beasts, Panthera leo')
我不是猫狗专家,但快速谷歌搜索表明这些结果更准确(输入图片中的猫似乎更接近虎猫而不是< em>埃及猫和 Border collie 狗看起来与 groenendael 的输入相似。
我的观点是,我认为应该使用inception_v3默认预处理(除非您将其更改为model.transform_input = False
,这是默认行为)而不是经典规范化,但我无法找到关于此的明确答案
This thread讨论了这件事。
希望这有助于某人。