为什么更快 - rcnn端到端训练只能做出近似值?

时间:2017-11-17 13:29:08

标签: image-processing deep-learning object-detection

更快的rcnn(https://arxiv.org/abs/1506.01497),

有两种方法来训练网络。

一种方法是联合训练rpn和快速rcnn。

另一种方法是以端到端的方式训练rpn和快速rcnn。

然而,作者说,在端到端的培训中,结果只是联合培训的近似值。

仅近似的原因是

  

这个解决方案忽略了导数w.r.t.提案框的坐标也是网络响应,因此是近似值。

但是,根据网络定义(https://github.com/rbgirshick/py-faster-rcnn/blob/master/models/pascal_voc/VGG16/faster_rcnn_end2end/train.prototxt),rpn的边界框回归会针对每次训练迭代进行更新,因此不会被忽略。

那么,为什么它会忽略提案框坐标的派生?那是什么意思?

1 个答案:

答案 0 :(得分:0)

幻灯片 Training R-CNNs of various velocities 在第 40-45 页详细讨论了这一点。简而言之,这是因为损失函数对ROI层的导数是未定义的,所以使用了代理梯度,在这种情况下,这个导数是未定义的。

附言

Link to ICCV 2015 Tutorial

The Github README page guide me to the slide