我目前正在运行一个用于图像识别的 Tensorflow 卷积网络,并且我正在考虑购买新的 GPU 以支持更复杂的图形、批量大小和输入维度。我读过这样的帖子,不建议使用 AWS GPU 实例来训练 convnet,但总是欢迎更多意见。
我已经阅读了 Tensorflow 的指南'Training a Model Using Multiple GPU Cards',并且该图似乎在 GPU 之间重复。我想知道这是在 Tensorflow convnet 中使用并行 GPU 的唯一方法吗?
我之所以问这个问题是因为如果 Tensorflow 只能跨多个 GPU 复制图形,这意味着每个 GPU 必须至少具有我的模型一批所需的内存大小。(例如,如果所需的最小内存大小为 5GB,则两张 4GB 的卡将无法完成这项工作)
先感谢您!