tf.train.Checkpoint
和tf.train.CheckpointManager
有点陌生。当我编写这样的代码时:
ckpt = tf.train.Checkpoint(step=tf.Variable(1), optimizer=optimizer, net=model)
manager = tf.train.CheckpointManager(ckpt, './ckpt', max_to_keep=100)
当我使用manager.save()
保存模型时,我可以正确保存模型并可以使用ckpt.restore(manager.latest_checkpoint)
成功还原模型,但是当我使用代码ckpt.restore(manager.latest_checkpoint)..assert_consumed()
时这是错误的,我认为这是错误的还可以恢复模型。这样会引发错误:
有人可以解释吗?谢谢〜