caffe快速rcnn smoothL1layer实现

时间:2017-04-11 02:12:14

标签: caffe

我正在阅读快速的rcnn caffe代码。在SmoothL1LossLayer里面,我发现实现与纸张方程式不一样,应该是什么?

论文等式:

enter image description here

对于每个带有类u的带标签的边界框,我们计算tx, ty, tw, th的和误差,但在代码中,我们有:

enter image description here

没有使用类标签信息。谁能解释为什么?

在反向传播步骤中,

enter image description here

为什么i在这里?

1 个答案:

答案 0 :(得分:0)

  1. train.prototxt bbox_pred中,输出大小为84 = 4(x,y,h,w) * 21(number of label)bbox_targets也是如此。所以它使用所有标签。
  2. 至于损失层,它会在底部blob上循环,以找到传播渐变的内容。这里只有propagate_down[i]中只有一个是真的。