我在测试阶段遇到Caffe BatchNorm图层问题。至少我认为它与BatchNorm层相关这个问题已经出现了几次,但我仍然没有找到适用于我的解决方案。
在训练期间一切看起来都很好,但在测试期间,准确度会急剧下降(在同一数据集上)。我也在谷歌小组中询问但没有得到答案:https://groups.google.com/forum/#!topic/caffe-users/0t4jehvN6oQ在那里你也会找到我的network.prototxt
我在U-Net分段网络中使用BatchNorm。在测试过程中,我使用批量大小为1,但这不会影响结果" use_global_stats = true",对吗?
我基本上尝试了How should "BatchNorm" layer be used in caffe?中讨论的所有变体,但没有任何效果。
有人可以帮忙吗?
彼得