我正在研究Google的全新MobileNetV2
架构。
在学习期间,我在Tensorflow模型动物园Github
读了这个字符串'例如,移动设备上的Mobilenet V2比Mobilenet V1更快,但桌面GPU上的速度稍慢。'
所以,我的问题是,
怎么可能呢?我真的很想知道原因。
答案 0 :(得分:1)
来自https://arxiv.org/abs/1903.08469v1:
“但是,MobileNet V2使用 GPU固件中不直接支持的深度可分离卷积(因此,cuDNN库)。因此,在大多数实验设置中,MobileNet V2往往比ResNet18慢。相同的问题使DenseNet体系结构的使用不合格[12],因为它需要在不连续的张量上进行有效的卷积,而cuDNN仍然不支持这种卷积。”
答案 1 :(得分:0)
摘自他们在MobileNetV2: Inverted Residuals and Linear Bottlenecks发表的论文,
在子主题5:实施说明,5.1下。内存有效推断;
倒置的残留瓶颈层允许特别的 高效的内存实现 对于移动应用很重要。 (还有更多书面文件)
根据TensorFlow团队的说法,经过优化的较小尺寸的产品也可以用作TF Lite。据我们所知,TF Lite确实是供移动使用的。与V1相比,台式机GPU上的速度要慢得多,可能是V2拥有更多的转换层,如果培训需要花费更多的时间来完成,这是有意义的。目前,由于计算速度的匮乏也导致了电力的匮乏,因此我们并未在移动设备上进行数据的训练和推断。
希望我回答这个问题。