我正在阅读快速的rcnn caffe代码。在SmoothL1LossLayer
里面,我发现实现与纸张方程式不一样,应该是什么?
论文等式:
对于每个带有类u的带标签的边界框,我们计算tx, ty, tw, th
的和误差,但在代码中,我们有:
没有使用类标签信息。谁能解释为什么?
在反向传播步骤中,
为什么i
在这里?
答案 0 :(得分:0)
train.prototxt
bbox_pred
中,输出大小为84 = 4(x,y,h,w) * 21(number of label)
。 bbox_targets也是如此。所以它使用所有标签。 propagate_down[i]
中只有一个是真的。