我发现在使用GPU时,在较小图像上SSD的推理时间比较大图像上的时间长,而且不知道为什么。
我正在https://github.com/balancap/SSD-Tensorflow上学习SSD_tensorflow的代码,我更改了网络代码中的feat_shapes以便可以测试不同大小的图像,当我记录vgg_ssd300的推理时间时,我发现了一个奇怪的现象:
图像的推断时间(720 * 1280)比图像(300 * 760)短
我对此很困惑,所以做了一些测试,发现:
当长宽比接近1:2时,推理时间将非常大,甚至比具有较大尺寸但长宽比为1:1的图像还要大。
我的测试结果是:
t(720,1280,3) t(720,1280,3) t(720,1280,3) t(720,1280,3)
有人发现这个问题吗?