我遇到了以下结构:
layer {
name: "conv2"
type: "Convolution"
bottom: "norm1"
top: "conv2"
param {
lr_mult: 1
decay_mult: 1
}
param {
lr_mult: 2
decay_mult: 0
}
1)有人可以解释为什么" param"已经设置了两次?
2)并且为了进行微调,我必须将all设置为0,对(我不希望这个图层更改)?
3)我应该只在train_val.prototxt中还是在deploy.prototxt中更改这些?
谢谢!
答案 0 :(得分:1)
param
控制权重,第二个控制权重
偏压。lr_mult
和decay_mult
,减少优化程序更新它们的频率。