TensorFlow:如何使Gradient Descent的学习率随着时间的推移而降低?

时间:2017-01-31 02:08:16

标签: python tensorflow neural-network

当声明梯度下降时,我显然必须在初始化之前定义训练步骤:

train_step = tf.train.GradientDescentOptimizer(eta).minimize(cross_entropy)
init = tf.global_variables_initializer()
session.run(init)
...

当我增加学习时代的数量时,如何调整eta?

0 个答案:

没有答案