0

我发现使用 GPU 时 SSD 在小图像上的推理时间比大图像长,不知道为什么。

我正在https://github.com/balancap/SSD-Tensorflow上学习 SSD_tensorflow 的代码,我更改了 net 代码中的 feat_shapes,以便在记录 vgg_ssd300 的推理时间时可以测试不同大小的图像,我发现了一个奇怪的现象:

图像(720*1280)的推理时间比图像(300*760)短

我对此感到非常困惑,所以我做了一些测试,我发现:

  1. 当长宽比接近 1:2 时,推理时间会非常大,甚至比尺寸较大但长宽比为 1:1 的图像还要大

    我的测试结果是:

    t(720, 1280, 3) < t(306, 763, 3)

    t(720, 1280, 3) < t(308, 665, 3)

    t(720, 1280, 3) < t(307, 1144, 3)

    t(720, 1280, 3) < t(302, 739, 3)

  2. 这仅发生在 GPU 上。在 CPU 上,无论长宽比如何,图像尺寸越大,时间总是越长。

有没有人发现这个问题?

4

0 回答 0