我在DeeplabV3 +(eval.py)的Tensorflow官方实现中发现了评估脚本,该脚本使用tf.metrics.mean_iou
更新平均IOU,并将其添加到Tensorboard中进行记录。
tf.metrics.mean_iou
实际上返回2个张量,一个是平均IOU,另一个是opdate_op,根据官方文档(doc),混淆矩阵。似乎每次想要计算出的mean_iou时,都必须先调用该update_op。
我正在尝试将此update_op作为张量添加到摘要中,但是它不起作用。我的问题是如何将此混淆矩阵添加到Tensorboard中?
我看到了其他一些有关如何计算混淆矩阵并将其添加到Tensorboard的线程,需要额外的操作。我只想知道如果没有这些额外的操作就可以做到这一点。
任何帮助将不胜感激。
答案 0 :(得分:2)
由于有人投票,我将在这里发布答案。
假设您以以下方式定义了mean_iou
op:
miou, update_op = tf.metrics.mean_iou(
predictions, labels, dataset.num_of_classes, weights=weights)
tf.summary.scalar(predictions_tag, miou)
如果在Tensorboard中看到图形,则会发现有一个名为“ mean_iou”的节点,并且在扩展该节点后,您会发现有一个名为“ total_confucion_matrix”的操作。这就是您计算每个类的查全率和查准率所需要的。
获取节点名称后,可以通过tf.summary.text
将其添加到张量板,或者通过tf.print
函数在终端中打印。下面是一个示例:
miou, update_op = tf.metrics.mean_iou(
predictions, labels, dataset.num_of_classes, weights=weights)
tf.summary.scalar(predictions_tag, miou)
# Get the correct tensor name of confusion matrix, different graphs may vary
confusion_matrix = tf.get_default_graph().get_tensor_by_name('mean_iou/total_confusion_matrix:0')
# Calculate precision and recall matrix
precision = confusion_matrix / tf.reshape(tf.reduce_sum(confusion_matrix, 1), [-1, 1])
recall = confusion_matrix / tf.reshape(tf.reduce_sum(confusion_matrix, 0), [-1, 1])
# Print precision, recall and miou in terminal
precision_op = tf.print("Precision:\n", precision,
output_stream=sys.stdout)
recall_op = tf.print("Recall:\n", recall,
output_stream=sys.stdout)
miou_op = tf.print("Miou:\n", miou,
output_stream=sys.stdout)
# Add precision and recall matrix in Tensorboard
tf.summary.text('recall_matrix', tf.dtypes.as_string(recall, precision=4))
tf.summary.text('precision_matrix', tf.dtypes.as_string(precision, precision=4))
# Create summary hooks
summary_op = tf.summary.merge_all()
summary_hook = tf.contrib.training.SummaryAtEndHook(
log_dir=FLAGS.eval_logdir, summary_op=summary_op)
precision_op_hook = tf.train.FinalOpsHook(precision_op)
recall_op_hook = tf.train.FinalOpsHook(recall_op)
miou_op_hook = tf.train.FinalOpsHook(miou_op)
hooks = [summary_hook, precision_op_hook, recall_op_hook, miou_op_hook]
num_eval_iters = None
if FLAGS.max_number_of_evaluations > 0:
num_eval_iters = FLAGS.max_number_of_evaluations
if FLAGS.quantize_delay_step >= 0:
tf.contrib.quantize.create_eval_graph()
tf.contrib.training.evaluate_repeatedly(
master=FLAGS.master,
checkpoint_dir=FLAGS.checkpoint_dir,
eval_ops=[update_op],
max_number_of_evaluations=num_eval_iters,
hooks=hooks,
eval_interval_secs=FLAGS.eval_interval_secs)