tf.nn.batch_normalization和tf.nn.batch_norm_with_global_normalization之间的区别

时间:2017-08-01 02:02:30

标签: tensorflow deep-learning batch-normalization

我正在尝试使用tensorflow实现批量规范化,并找到了这个nice post。这两个函数似乎都采用了类似的参数,但似乎人们更多地使用后者。

它们可以互换使用吗?如果没有,有什么区别? (为什么tensorflow中有这么多类似的API呢?另一个例子是tf.nn.softmax_cross_entropy_with_logitstf.losses.softmax_cross_entropy。我试过这两个并且它们看起来工作正常但我觉得我可能会错过一些微妙的东西在这里可以彻底改变我的火车结果。

1 个答案:

答案 0 :(得分:0)

我想tf.nn.batch_normalization更好,
tf.nn.batch_norm_with_global_normalization方法是旧版本,稍后会弃用

我想你会找到更好的答案here