从头开始训练快速rcnn不起作用

时间:2018-12-03 06:01:07

标签: deep-learning caffe

我很困惑如何继续进行网络检测。

我正在从头开始使用自己的网络训练py-faster-rcnn。它不做任何检测。损失从2.5收敛到0.5。

但是检出率很差,为0%。

完全不可能使用网络,因为损耗正在(可以认为是收敛)收敛。

我跟踪了一些讨论,以管理网络是否无法像调整lr和动量那样收敛。

我在没有预先训练的重量的情况下使用原始VGG16网测试了相同的数据,我看到了类似的损失,例如从2.5收敛到0.6且检测率为0%。

所以我很困惑应该怎么做才能使自己的网络进行一些检测。

log file用于在没有预先训练的模型的情况下从py-faster-rcnn训练原始VGG16网络。

从头开始进行自己的网络培训的log file

我们可以在第二个日志文件中观察到我的网络使用了初始网络,其余的诸如接收域,步幅等都非常接近原始的VGG16网络,当然这是一个较小的网络。

有人可以讨论如何做才能使我的网络具有一定的检测力。

我的求解器如下以进行端到端培训。

train_net: "models/pascal_voc/VGG16/faster_rcnn_end2end/train.prototxt"
base_lr: 0.001
lr_policy: "step"
gamma: 0.1
stepsize: 700
display: 20
average_loss: 100
# iter_size: 1
momentum: 0.9
weight_decay: 0.00005
type: "Adam"
# We disable standard caffe solver snapshotting and implement our own snapshot
# function
snapshot: 0
# We still use the snapshot prefix, though
snapshot_prefix: "vgg16_faster_rcnn"
iter_size: 2

0 个答案:

没有答案