loss_weight = N和diff * N在pycaffe中是否做相同的事情?

时间:2018-12-06 09:34:41

标签: deep-learning caffe pycaffe

我用pycaffe尝试了这两种方法:

  1. loss_weigth=100 in prototxt;
  2. net.blobs['fc'].diff[...] = A_loss + 100*B_loss

我认为他们在BP理论中做同样的事情,但是模型损失却显示出相反的结果。

我想知道这两种方法有什么区别?如果存在多个损失,我应该如何处理损失权重?

0 个答案:

没有答案