如何跳过从检查点文件还原学习率

时间:2019-10-09 17:07:08

标签: python tensorflow tensorflow2.0

有没有一种方法可以防止TensorFlow从检查点文件中还原某些变量?

我正在使用tf.train.Checkpointtf.train.CheckpointManager API保存我的整个模型,包括优化器。假设我们以新的学习率重新实例化模型和优化器。还原时,优化器的手动设置学习率将被检查点中的变量覆盖。我希望学习率是Python浮点数,而不是将TensorFlow变量写入检查点文件。是否可以从检查点跳过保存/加载学习率,而不是在加载模型后再次手动更新学习率?

谢谢。

0 个答案:

没有答案
相关问题