这可能是一个简单的问题,但我无法找到它。但我对这一切也很陌生,所以也许我只是失明。
将TensorFlowDNNRegressor与SGD或Adagrad一起使用时的默认学习率是多少? 使用Adam或Adadelta时的默认值似乎是0.001,但我找不到Adagrad的默认值,Adagrad是TensorFlowDNNRegressor的默认优化器,也不是经典SGD的默认优化器。
谢谢!
答案 0 :(得分:2)
AdaGrad并不需要学习率,因为它适应组件(因此名称)。一个非常简洁的评论: https://xcorr.net/2014/01/23/adagrad-eliminating-learning-rates-in-stochastic-gradient-descent/
答案 1 :(得分:1)
TensorFlowDNNRegressor的默认学习率为0.1,如上述文档和代码所述。
我检查了代码,但Adagrad优化器的学习率没有默认值 https://github.com/tensorflow/tensorflow/blob/master/tensorflow/python/training/adagrad.py