Caffe损失从开始到结束都不会减少

时间:2018-01-30 03:25:49

标签: neural-network computer-vision deep-learning caffe

这是我第一次使用纸张构建网络,当我开始训练直到数千次迭代时,损失不会减少,相反,它会一直波动,无论我将base_lr变为多小,如0.0001或0.0000001.I怀疑数据与正确的标签不匹配,但如何检查或解决方案是什么?这个网是关于人群密度估计,数据和标签都是图片。我首先使用matlab生成密度图(标签)并按顺序命名,然后创建lmdb。

以下是我为数据命名的方式:    Here is how I name my data.

以下是我如何命名我的标签:  Here is how I name my label

这是解算器。

net: "/media/lenovo/KINGSTON/UCF_CC_50/UCF_train_test.prototxt"
test_iter: 1
test_interval: 10
base_lr: 0.00001
momentum: 0.9
weight_decay: 0.004
lr_policy: "inv"
gamma: 0.0001
power: 0.75
display: 100
type:"SGD"
max_iter: 20000
snapshot: 2000
snapshot_prefix: "/media/lenovo/KINGSTON/UCF_CC_50/"    
solver_mode: GPU

0 个答案:

没有答案