问题: 假设您有 4 个 GPU(每个有 2GB 内存)来训练您的深度学习模型。您的数据集中有 1000 个数据点,需要大约 10 GB 的存储空间。一台设备的批量大小的最佳选择是什么(在 TF 中使用镜像策略)?
有人可以帮我解决这个分配问题吗?提前致谢。
问题: 假设您有 4 个 GPU(每个有 2GB 内存)来训练您的深度学习模型。您的数据集中有 1000 个数据点,需要大约 10 GB 的存储空间。一台设备的批量大小的最佳选择是什么(在 TF 中使用镜像策略)?
有人可以帮我解决这个分配问题吗?提前致谢。