2

最初,我尝试使用 268 个测试图像 + 65 个 256x256 大小的验证图像在图像分类模型中进行迁移学习。

(我使用的代码来自https://github.com/conan7882/GoogLeNet-Inception

然而,即使使用 Tesla K80(16 GB 内存),我仍然无法训练超过 5 的批量大小。

现在我将数据集的大小增加到 480 个测试图像 + 120 个验证图像,内存不足的错误再次弹出。我必须将批量大小减少到 2 才能继续训练。

为什么数据集大小在内存使用中很重要?不应该只有批量大小决定 GPU 正在处理多少数据吗?

4

0 回答 0