tf.train.Checkpoint和tf.train.Saver之间的区别

时间:2018-12-01 09:56:08

标签: python tensorflow deep-learning eager-execution

我发现有多种方法可以在Tensorflow中保存/恢复模型和变量。这些方式包括:

在tensorflow的文档中,我发现它们之间存在一些差异:

  1. tf.saved_modeltf.train.Saver周围的薄包装
  2. tf.train.Checkpoint支持积极执行,但tf.train.Saver
  3. tf.train.Checkpoint不会创建.meta文件,但仍然可以加载图形结构(这是一个大问题!它如何做到这一点?)

tf.train.Checkpoint如何在没有.meta文件的情况下加载图形?或更广泛地说,tf.train.Savertf.train.Checkpoint有什么区别?

1 个答案:

答案 0 :(得分:0)

根据Tensorflow docs

  

Checkpoint.saveCheckpoint.restore写入和读取基于对象   检查点,与tf.train.Saver进行写入和读取相反   基于variable.name的检查点。基于对象的检查点保存   Python对象(层,优化器,   具有命名边的变量等),此图用于匹配   恢复检查点时的变量。它可以更强大   Python程序中的更改,并有助于支持创建时还原   急于执行时的变量。 优先选择tf.train.Checkpoint   tf.train.Saver获取新代码