为什么MobileNetV2仅在移动设备上比MobileNetV1更快?

时间:2018-05-17 07:31:02

标签: tensorflow mobile gpu

我正在研究Google的全新MobileNetV2架构。

在学习期间,我在Tensorflow模型动物园Github

读了这个字符串

'例如,移动设备上的Mobilenet V2比Mobilenet V1更快,但桌面GPU上的速度稍慢。'

所以,我的问题是,

怎么可能呢?我真的很想知道原因。

2 个答案:

答案 0 :(得分:1)

来自https://arxiv.org/abs/1903.08469v1

“但是,MobileNet V2使用 GPU固件中不直接支持的深度可分离卷积(因此,cuDNN库)。因此,在大多数实验设置中,MobileNet V2往往比ResNet18慢。相同的问题使DenseNet体系结构的使用不合格[12],因为它需要在不连续的张量上进行有效的卷积,而cuDNN仍然不支持这种卷积。”

答案 1 :(得分:0)

摘自他们在MobileNetV2: Inverted Residuals and Linear Bottlenecks发表的论文,

在子主题5:实施说明,5.1下。内存有效推断;

  

倒置的残留瓶颈层允许特别的   高效的内存实现   对于移动应用很重要。 (还有更多书面文件)

根据TensorFlow团队的说法,经过优化的较小尺寸的产品也可以用作TF Lite。据我们所知,TF Lite确实是供移动使用的。与V1相比,台式机GPU上的速度要慢得多,可能是V2拥有更多的转换层,如果培训需要花费更多的时间来完成,这是有意义的。目前,由于计算速度的匮乏也导致了电力的匮乏,因此我们并未在移动设备上进行数据的训练和推断。

希望我回答这个问题。