为什么要为自适应优化算法设置学习率?

时间:2018-08-08 08:18:58

标签: machine-learning keras deep-learning

众所周知,自适应随机优化算法(例如Adam,RMSProp和Adagrad)可在学习权重的过程中自适应地更改参数。

但是,当使用这种算法时,Keras提供了设置学习速率的选项。如果自适应地找到合适的值,为什么要这样做?

1 个答案:

答案 0 :(得分:0)

Adam's的此选项不允许您手动设置学习率本身,而仅是初始值。优化器将相应地调整其学习率。

我不确定100%是否适用于其他优化程序,但我会这么做。