使用SGD或Adagrad的TensorFlowDNNRegressor的默认学习率是多少?

时间:2016-06-07 09:16:49

标签: tensorflow skflow

这可能是一个简单的问题,但我无法找到它。但我对这一切也很陌生,所以也许我只是失明。

将TensorFlowDNNRegressor与SGD或Adagrad一起使用时的默认学习率是多少? 使用Adam或Adadelta时的默认值似乎是0.001,但我找不到Adagrad的默认值,Adagrad是TensorFlowDNNRegressor的默认优化器,也不是经典SGD的默认优化器。

谢谢!

2 个答案:

答案 0 :(得分:2)

AdaGrad并不需要学习率,因为它适应组件(因此名称)。一个非常简洁的评论: https://xcorr.net/2014/01/23/adagrad-eliminating-learning-rates-in-stochastic-gradient-descent/

答案 1 :(得分:1)