Tensorflow:经过培训的Google-Inception V3模型,我应该依靠哪一个?

时间:2019-01-22 20:41:51

标签: tensorflow machine-learning imagenet

在开始学习Inception v3模型对图像进行分类时,使用了以下教程: https://github.com/tensorflow/models/blob/master/tutorials/image/imagenet/classify_image.py

其中包含以下模型下载链接:

DATA_URL = 'http://download.tensorflow.org/models/image/imagenet/inception-2015-12-05.tgz'

或inception-v3-2015-12-05版本。我试图验证该官方模型是否与Google Inception V3论文Rethinking the Inception Architecture for Computer Vision中使用的模型匹配。但是,当我在ImageNet的50K验证图像上运行此模型时,获得了以下Top-1准确性结果:

  • 50,000 ILSVRC-2012验证集:77.6%(38,802 / 50,000)
  • ILSVRC-2012验证集上的
  • 48,238个未列入黑名单的示例**:80.03%(38,607 / 48,238)

**请注意,黑名单是从ILSVRC2014's Devkit获得的:ILSVRC2014_clsloc_validation_ground_truth.txt

但是,如paper中所述,前1个错误/准确度表示为Inception V3 paper's Top-1 accuracy之后,无法匹配。

此外,我从here找到了一个更新的2016-08-28版本模型,该模型说明了初始v3的Top-1准确性为78.0%,也与本文不匹配。

此外,我注意到2015-12-05 version模型的输出softmax张量的大小为1008,而2016-08-28版本的softmax张量的大小为1001。

因此,我对以下问题感到好奇:

  1. inception-2015-12-05(名称为classify_image_graph_def.pb)和inception-2016-08-28的训练规格是什么?单一作物还是基本作物还是什么?是否有引用其top1汇率结果的信息?
  2. 本文中的inception_v3基本是什么?
  3. 两个模型实际上都可靠吗?为什么对两张图片都运行验证图片却没有得出论文所述的结果?
  4. 有人可以解释一下“单作实验”和“单帧”吗?

提前谢谢!

0 个答案:

没有答案