我发现使用 GPU 时 SSD 在小图像上的推理时间比大图像长,不知道为什么。
我正在https://github.com/balancap/SSD-Tensorflow上学习 SSD_tensorflow 的代码,我更改了 net 代码中的 feat_shapes,以便在记录 vgg_ssd300 的推理时间时可以测试不同大小的图像,我发现了一个奇怪的现象:
图像(720*1280)的推理时间比图像(300*760)短
我对此感到非常困惑,所以我做了一些测试,我发现:
当长宽比接近 1:2 时,推理时间会非常大,甚至比尺寸较大但长宽比为 1:1 的图像还要大
我的测试结果是:
t(720, 1280, 3) < t(306, 763, 3)
t(720, 1280, 3) < t(308, 665, 3)
t(720, 1280, 3) < t(307, 1144, 3)
t(720, 1280, 3) < t(302, 739, 3)
- 这仅发生在 GPU 上。在 CPU 上,无论长宽比如何,图像尺寸越大,时间总是越长。
有没有人发现这个问题?