在我的NN结构中,我想使用不同的学习速率或优化器,例如AdaGrad,在每一层。怎么实现呢?等待你的帮助。 THKS。
答案 0 :(得分:0)
将def worker(args):
var_a, id, name, content, proxy, headers, connection = args
print (var_a)
... etc ...
设置为optimizer
后,模型中model
的每个参数都有link
属性(例如本例中为update_rule
),定义如何更新此参数。
每个AdaGradRule
分别有update_rule
个属性,因此您可以为链接中的每个参数覆盖这些hyperparam
。
以下是示例代码
hyperparam