如何从检查点恢复tf.train.AdamOptimizer的状态?

时间:2017-11-13 20:03:01

标签: python tensorflow

我需要从Tensorflow中的检查点恢复tf.train.AdamOptimizer的状态,以便在不重置优化程序状态的情况下再次启动另一个数据集的训练。我知道解决方案是Saving the state of the AdaGrad algorithm in Tensorflow中提出的解决方案。但是,建议的解决方案只能使用tf.train.import_meta_graph,但我不想使用该方法。如果我尝试遵循该解决方案,当我调用tf.get_collection(“train_step”)时,我会获得一个空列表。你能建议我另一个解决方案吗?

谢谢。

0 个答案:

没有答案