标签: python tensorflow tensorflow2.0
有没有一种方法可以防止TensorFlow从检查点文件中还原某些变量?
我正在使用tf.train.Checkpoint和tf.train.CheckpointManager API保存我的整个模型,包括优化器。假设我们以新的学习率重新实例化模型和优化器。还原时,优化器的手动设置学习率将被检查点中的变量覆盖。我希望学习率是Python浮点数,而不是将TensorFlow变量写入检查点文件。是否可以从检查点跳过保存/加载学习率,而不是在加载模型后再次手动更新学习率?
tf.train.Checkpoint
tf.train.CheckpointManager
谢谢。