如何在Chainer的不同层实现单独的学习率或优化器?

时间:2017-08-13 02:58:40

标签: neural-network chainer

在我的NN结构中,我想使用不同的学习速率或优化器,例如AdaGrad,在每一层。怎么实现呢?等待你的帮助。 THKS。

1 个答案:

答案 0 :(得分:0)

def worker(args): var_a, id, name, content, proxy, headers, connection = args print (var_a) ... etc ... 设置为optimizer后,模型中model的每个参数都有link属性(例如本例中为update_rule),定义如何更新此参数。

每个AdaGradRule分别有update_rule个属性,因此您可以为链接中的每个参数覆盖这些hyperparam

以下是示例代码

hyperparam