我写了一个多 gpu Cnn 代码
在此链接 中,他们在第 249 行发表了评论
# 仅保留来自最终塔的批量标准化更新操作。理想情况下,我们应该从所有塔中获取更新 # 但这些统计数据积累得非常快,因此我们可以忽略来自其他塔的 # 其他统计信息而不会造成重大损害。
但是这个更新批量规范的代码(在第 253 行):
with tf.device('/gpu:%d' % i):
.
.
.
batchnorm_updates =
tf.get_collection(slim.ops.UPDATE_OPS_COLLECTION,scope)
已为所有塔(GPU)完成,那么此更新的正确位置是什么?