我使用caffe训练底部有欧几里德损失图层的CNN,并且我的solver.prototxt文件配置为每100次迭代显示一次。我看到这样的事情,
Iteration 4400, loss = 0
I0805 11:10:16.976716 1936085760 solver.cpp:229] Train net output #0: loss = 2.92436 (* 1 = 2.92436 loss)
我对迭代损失和火车净损失之间的差异感到困惑。通常迭代损失非常小(大约为0),并且列车净输出损失稍微大一些。有人可以澄清一下吗?
答案 0 :(得分:4)
Evan Shelhamer已经在https://groups.google.com/forum/#!topic/caffe-users/WEhQ92s9Vus给出了答案。
当他指出时,net output #k
结果是特定迭代/批处理的网络输出,而Iteration T, loss = X
输出根据average_loss
字段在迭代中平滑。 / p>