0

我必须在 google colab 免费上为我的面部验证项目训练 70,000 张图像。首先,它卡在第一个 epoch,然后即使它开始训练,一段时间后它也会抛出 RAM 错误。我使用的代码是:

<https://nbviewer.org/github/nicknochnack/FaceRecognition/blob/main/Facial%20Verification%20with%20a%20Siamese%20Network%20-%20Final.ipynb>

如果我必须对我的数据集进行小批量处理以将其放入 colab 的 GPU 内存中,那么我该怎么做呢?另外,我想训练整个数据集,因为它包含 5 个不同人的图像作为锚点和正例。

4

1 回答 1

0

您可以执行以下选项来训练更大的数据集。

  1. 在模型中添加更多池化层。
  2. 降低模型中的输入大小。
  3. 对图像分类模型使用图像尺寸较小的图像的二进制格式。
  4. 在训练和验证模型时降低批量大小。
  5. 您还可以使用tf.data api 执行各种操作,如批处理、切片、处理、洗牌等,以创建数据管道。您可以进一步限制GPU的使用以避免内存不足问题。

在下面附上示例 colab 笔记本。 https://colab.sandbox.google.com/github/tensorflow/docs/blob/master/site/en/guide/data.ipynb

于 2022-02-16T09:04:02.987 回答