我正在尝试训练一个完全卷积网络(FCN)进行密集预测。
paper的作者提到:
“我们将2倍上采样初始化为双线性插值,但允许要学习的参数。”
当我阅读他们的training prototxt file时,这些图层的学习倍数是零。
我是否应该将此学习倍数更改为非零值以让这些图层被学习?
感谢,
答案 0 :(得分:1)
引用shelhamer
在PASCAL VOC的进一步实验中,我们发现学习插值参数几乎没有差别,并且固定这些权重可以略微提高速度,因为可以跳过插值滤波器的渐变。
因此,如果您希望他们学习,您可以保持lr_mult
这种方式或更改为非零值。如果需要,您还可以在solver.prototxt中设置lr_policy
。
有关详细信息,请参阅this thread in caffe-users group