我定义了一个这样的全局步骤:
global_step = tf.contrib.framework.get_or_create_global_step()
learning_rate = tf.train.exponential_decay(FLAGS.starter_lr,
global_step,
1000,
0.96,
staircase=True)
我正在尝试将学习率打印到stdout每n次迭代。我尝试将learning_rate添加到我得到的操作列表中,但我得到的学习率并没有衰减。
variables = [loss, training_summary, learning_rate, train_step]
current_loss, t_summary, lr, _ = sess.run(variables, feed_dict)
我误解了learning_rate
对象是什么吗?
[编辑] 我的训练步骤定义如下:
train_step = (
tf.train.AdamOptimizer(learning_rate)
.minimize(loss, global_step=global_step)
)