使用exponential_decay访问学习率

时间:2017-06-26 17:37:24

标签: tensorflow

我定义了一个这样的全局步骤:

global_step = tf.contrib.framework.get_or_create_global_step()

learning_rate = tf.train.exponential_decay(FLAGS.starter_lr,
    global_step,
    1000,
    0.96,
    staircase=True)

我正在尝试将学习率打印到stdout每n次迭代。我尝试将learning_rate添加到我得到的操作列表中,但我得到的学习率并没有衰减。

variables = [loss, training_summary, learning_rate, train_step]
current_loss, t_summary, lr, _ = sess.run(variables, feed_dict)

我误解了learning_rate对象是什么吗?

[编辑] 我的训练步骤定义如下:

train_step = (
        tf.train.AdamOptimizer(learning_rate)
        .minimize(loss, global_step=global_step)
        )

0 个答案:

没有答案