如何监控AdamOptimizer的学习率? 在TensorBoard: Visualizing Learning据说我需要
通过将scalar_summary ops附加到分别输出学习速率和损失的节点来收集这些内容。
我该怎么做?
答案 0 :(得分:1)
我认为图中的内容可以正常工作:
with tf.name_scope("learning_rate"):
global_step = tf.Variable(0)
decay_steps = 1000 # setup your decay step
decay_rate = .95 # setup your decay rate
learning_rate = tf.train.exponential_decay(0.01, global_step, decay_steps, decay_rate, staircase=True, "learning_rate")
tf.scalar_summary('learning_rate', learning_rate)
(当然为了使其有效,它需要tf.merge_all_summaries()
并使用tf.train.SummaryWriter
将摘要写入日志中