0

我正在尝试使用 tensorflow 实现批量标准化,并找到了这个不错的帖子。这两个函数似乎都采用相似的参数,但似乎人们更多地使用后者。

它们可以互换使用吗?如果不是,有什么区别?(为什么在 tensorflow 中有这么多类似的 API?另一个例子是tf.nn.softmax_cross_entropy_with_logitsand tf.losses.softmax_cross_entropy。我尝试了两者,它们似乎工作正常,但我觉得也许我在这里遗漏了一些微妙的东西,可以彻底改变我的训练结果。

4

1 回答 1

0

我猜 tf.nn.batch_normalization 更好,
tf.nn.batch_norm_with_global_normalization 方法是旧版本,以后会弃用

我想你会在这里找到更好的答案

于 2018-04-27T04:08:39.370 回答