3

我正在 MNIST 上训练自动编码器,并注意到在 128 之后增加批量大小,开始在固定数据集大小上花费更多计算时间。

我正在使用 tensorflow-gpu 并拥有 GeForce GTX 1070。

我尝试在 5000 个样本(784 暗淡)的固定训练集上运行几个测试,并运行了 10 个 epoch。批次是batch-size来自 5000 个训练样本的连续块,因此有效的迭代次数取决于批次大小。

我跟踪了这​​些数据的性能(丢失)、执行时间和 python 进程的 GPU 内存使用情况(来自 nvidia-smi 输出):

5000 datapoints 10 epochs

batch size
512:       loss: 53.7472; execution took 00:00:13,787; 4281MiB
256:       loss: 48.1941; execution took 00:00:04,973; 695MiB
128:       loss: 42.7486; execution took 00:00:03,350; 439MiB
64:        loss: 40.0781; execution took 00:00:04,191; 439MiB
32:        loss: 37.7348; execution took 00:00:06,487; 441MiB
16:        loss: 36.6291; execution took 00:00:12,102; 441MiB
8:         loss: nan;     execution took 00:00:23,115; 441MiB

当我尝试大于 512 的 minibatch 大小时,我得到 Out Of Memory 错误。

我想较小的批次需要更长的时间来执行是有道理的,因为同一日期会有更多的更新。但是,我不确定为什么当 minibatch 大于 128 个样本时计算时间会增加,而不是进一步减少。

一个假设是它与 GPU 已满且无法正确并行化有关,但我在网上找不到任何此类评论。

4

2 回答 2

0
  • 当您使用较小的批量训练模型时,您的模型会更频繁地更新,尽管更随机。这有助于在每个时期更快地收敛。例如,如果您训练batch_size500 次,您将在 1 个 epoch 中更新模型参数 100 次,但如果您训练batch_size50 次,则 1 个 epoch 中的更新次数为 1000。

  • 当您使用较大的批量训练模型时,每次更新都更加稳定且随机性更小。

  • 当您使用更大的批量训练模型时,它会利用 CPU 或 GPU 上的矢量化计算,例如batch_size = 1我们会获得更多更新,但没有矢量化的优势。但是,当您在比内存容量更高的非常大的批大小上进行训练时,就会出现内存不足。

通常,我们平衡批量大小的数量和收敛速度。

于 2019-04-30T13:45:30.773 回答
0

虽然更大的批次意味着每个 epoch 中的总更新更少,但这也意味着每个批次将需要更多的时间来处理,虽然使批次大小变大会使批次的总数变小,但也可能导致收敛速度变慢。
所以正如你所看到的,有一个权衡。您将必须为您的数据集找到最佳批量大小。对于 MNIST,批次大小通常在 50 到 150 之间。
我不确定您是如何从数据库中加载批次的,但是如果以正确的方式使用,批处理的一个优点是您不必将整个数据加载到您的内存。因此,大批量会导致内存不足错误是很自然的。

于 2019-04-30T13:49:48.010 回答