为什么在使用GPU时SSD在较小图像上的推理时间比较大图像更长

时间:2019-05-26 13:08:35

标签: python tensorflow gpu ssd

我发现在使用GPU时,在较小图像上SSD的推理时间比较大图像上的时间长,而且不知道为什么。

我正在https://github.com/balancap/SSD-Tensorflow上学习SSD_tensorflow的代码,我更改了网络代码中的feat_shapes以便可以测试不同大小的图像,当我记录vgg_ssd300的推理时间时,我发现了一个奇怪的现象:

图像的推断时间(720 * 1280)比图像(300 * 760)短

我对此很困惑,所以做了一些测试,发现:

  1. 当长宽比接近1:2时,推理时间将非常大,甚至比具有较大尺寸但长宽比为1:1的图像还要大。

    我的测试结果是:

    t(720,1280,3)

    t(720,1280,3)

    t(720,1280,3)

    t(720,1280,3)

  2. 这仅发生在GPU上。在CPU上,无论长宽比如何,图像尺寸越大,时间总是越长。

有人发现这个问题吗?

0 个答案:

没有答案