禁用 Eager Execution 后,我可以连接到我的云 TPU 并运行我的自定义训练循环。计算损失后,我想打印该变量。
鉴于损失是 Cloud TPU 的张量,到目前为止我还没有找到任何打印它的方法。tf.print
返回 a PrintOperation
,所以我被卡住了。我想像将损失张量移回我的 cpu 之类的东西会起作用,但我还没有找到任何 hacky 方法来做到这一点。
我知道有可能得到这个结果,因为当我keras
使用 TPU 分布策略封装我的模型并使用model.fit
而不是我的自定义训练循环时,我可以打印损失指标。
所以必须有一种方法,非常感谢任何帮助找到它:)