在chainer中,如何使用chainer.GradientMethod以及如何自定义定义参数更新规则

时间:2017-08-24 14:57:31

标签: chainer

我在HERE找到了一个类,它有一个名为promise.if()的函数,我需要的是定义一个向后渐变的函数,假设我想编写以下代码:

create_update_rule()

其中W是我的Function / Layer的参数,但我不知道chainer默认优化器如何更新参数?它是W[i] -= gradient[i] * learning_rate; 还是+=

1 个答案:

答案 0 :(得分:0)

每个优化器,例如SGD优化器,是GradientMethod的子类。 每个优化器都有自己的UpdateRule

请参阅计算的SGD's update rule

W[i] -= gradient[i] * learning_rate