在tensorboard中记录训练和验证丢失

时间:2015-12-26 13:02:27

标签: python tensorflow tensorboard

我试图学习如何使用tensorflow和tensorboard。我有一个基于MNIST neural net tutorial的测试项目。

在我的代码中,我构造了一个节点,用于计算正确分类的数据集中的数字部分,如下所示:

correct = tf.nn.in_top_k(self._logits, labels, 1)
correct = tf.to_float(correct)
accuracy = tf.reduce_mean(correct)

此处,self._logits是图表的推理部分,labels是包含正确标签的占位符。

现在,我想做的是在训练进行时评估训练集和验证集的准确性。我可以通过运行精度节点两次,使用不同的feed_dicts来执行此操作:

train_acc = tf.run(accuracy, feed_dict={images : training_set.images, labels : training_set.labels})
valid_acc = tf.run(accuracy, feed_dict={images : validation_set.images, labels : validation_set.labels})

这是按预期工作的。我可以打印这些值,我可以看到,最初,两个精度都会增加,最终验证精度会变平,而训练精度会不断提高。

但是,我还想在tensorboard中得到这些值的图表,我无法弄清楚如何做到这一点。如果我只是将scalar_summary添加到accuracy,则记录的值将无法区分训练集和验证集。

我还尝试创建两个具有不同名称的相同accuracy个节点,并在训练集上运行一个节点,在验证集上运行一个节点。然后,我为每个节点添加scalar_summary。这确实在张量板中给出了两个图形,但是它们不是显示训练集精度的一个图形而是显示验证集精度的图形,而是显示与打印到终端的任何一个都不匹配的相同值。

我可能误解了如何解决这个问题。对于不同的输入,单独记录单个节点的输出的推荐方法是什么?

2 个答案:

答案 0 :(得分:48)

有几种不同的方法可以实现这一目标,但是您可以创建不同的tf.summary.scalar()节点。由于每次要将数量记录到事件文件时都必须显式调用SummaryWriter.add_summary(),因此每次要获得培训或验证准确性时,最简单的方法可能是获取相应的摘要节点:

accuracy = tf.reduce_mean(correct)

training_summary = tf.summary.scalar("training_accuracy", accuracy)
validation_summary = tf.summary.scalar("validation_accuracy", accuracy)


summary_writer = tf.summary.FileWriter(...)

for step in xrange(NUM_STEPS):

  # Perform a training step....

  if step % LOG_PERIOD == 0:

    # To log training accuracy.
    train_acc, train_summ = sess.run(
        [accuracy, training_summary], 
        feed_dict={images : training_set.images, labels : training_set.labels})
    writer.add_summary(train_summ, step) 

    # To log validation accuracy.
    valid_acc, valid_summ = sess.run(
        [accuracy, validation_summary],
        feed_dict={images : validation_set.images, labels : validation_set.labels})
    writer.add_summary(valid_summ, step)

或者,您可以创建一个标记为tf.placeholder(tf.string, [])的摘要操作,并根据需要提供字符串"training_accuracy""validation_accuracy"

答案 1 :(得分:3)

另一种方法是使用第二个文件编写器。因此,您可以使用merge_summaries命令。

train_writer = tf.summary.FileWriter(FLAGS.summaries_dir + '/train',
                                      sess.graph)
test_writer = tf.summary.FileWriter(FLAGS.summaries_dir + '/test')
tf.global_variables_initializer().run()

这是完整的文档。这对我很有用:TensorBoard: Visualizing Learning