我在HERE找到了一个类,它有一个名为promise.if()
的函数,我需要的是定义一个向后渐变的函数,假设我想编写以下代码:
create_update_rule()
其中W是我的Function / Layer的参数,但我不知道chainer默认优化器如何更新参数?它是W[i] -= gradient[i] * learning_rate;
还是+=
?
答案 0 :(得分:0)
每个优化器,例如SGD
优化器,是GradientMethod
的子类。
每个优化器都有自己的UpdateRule
。
请参阅计算的SGD's update rule
W[i] -= gradient[i] * learning_rate