我需要从Tensorflow中的检查点恢复tf.train.AdamOptimizer的状态,以便在不重置优化程序状态的情况下再次启动另一个数据集的训练。我知道解决方案是Saving the state of the AdaGrad algorithm in Tensorflow中提出的解决方案。但是,建议的解决方案只能使用tf.train.import_meta_graph,但我不想使用该方法。如果我尝试遵循该解决方案,当我调用tf.get_collection(“train_step”)时,我会获得一个空列表。你能建议我另一个解决方案吗?
谢谢。