caffe param设置了两次?

时间:2018-03-10 10:09:36

标签: neural-network deep-learning caffe pycaffe

我遇到了以下结构:

layer {
  name: "conv2"
  type: "Convolution"
  bottom: "norm1"
  top: "conv2"
  param {
    lr_mult: 1
    decay_mult: 1
  }
  param {
    lr_mult: 2
    decay_mult: 0
  }

1)有人可以解释为什么" param"已经设置了两次?

2)并且为了进行微调,我必须将all设置为0,对(我不希望这个图层更改)?

3)我应该只在train_val.prototxt中还是在deploy.prototxt中更改这些?

谢谢!

1 个答案:

答案 0 :(得分:1)

  1. 第一个param控制权重,第二个控制权重 偏压。
  2. 您可能想要也可能不想将它们全部设置为零。当你这样做时,你就会“冻结”#34;这一层,这意味着它的权重和偏见根本不会更新。您可以做的另一件事是减少lr_multdecay_mult,减少优化程序更新它们的频率。
  3. 仅在培训中,因为在测试中没有优化。