我已在该us-central1-f
地区分配了多个 Google Cloud TPU。机器类型都是v2-8
.
如何利用我所有的 TPU 训练一个模型?
该us-central1-f
地区不支持 pods,因此使用 pods 似乎不是解决方案。即使 pod 可用,我拥有的 v2-8 单元的数量也不匹配任何 pod TPU 切片大小(16、64、128、256),因此我无法在单个 pod 中使用它们。
我已在该us-central1-f
地区分配了多个 Google Cloud TPU。机器类型都是v2-8
.
如何利用我所有的 TPU 训练一个模型?
该us-central1-f
地区不支持 pods,因此使用 pods 似乎不是解决方案。即使 pod 可用,我拥有的 v2-8 单元的数量也不匹配任何 pod TPU 切片大小(16、64、128、256),因此我无法在单个 pod 中使用它们。
虽然我找不到明确回答这个问题的文档,但我已经阅读了多篇文章和问题并得出结论,如果您使用的v2-8
是v3-8
TPU,则不可能一次使用多个。您将不得不使用更大的机器,例如v2-32
或v3-32
确保您可以访问更多内核,而 TFRC 程序不会免费提供这些。
参考:
我相信你不能轻易做到这一点。如果您想使用多个 TPU 训练单个模型,则需要访问具有 TPU Pod 的区域。否则你可以做显而易见的事情:在不同的 TPU 上训练相同的模型,但使用不同的超参数作为网格搜索的一种方式,或者你可以训练多个弱学习器,然后手动组合它们。