使用恢复(来自已保存)模型的张量流在一些时期之后变慢

时间:2017-12-05 10:28:24

标签: python tensorflow deep-learning

我希望在每个纪元的末尾保存我的模型link

我是这样做的:

保存:

model_dir = "{0}/epoch_{1}/res".format(train_dir, epoch_num)
saver.save(sess, model_dir, global_step=global_step_val)

恢复:

 for ep_num in range(num_epochs):
        model_dir = "{0}/epoch_{1}/".format(train_dir, epoch_num)
        model_meta_file_name = [each for each in 
        os.listdir(model_dir) if each.endswith('.meta')][0]
        meta_path="{0}/{1}".format(model_dir, model_meta_file_name)
        saver = tf.train.import_meta_graph(meta_path)
        saver.restore(sess, tf.train.latest_checkpoint(model_dir))

并继续使用评估数据评估我的模型。

但在7-8个时代之后,我的评估过程变得非常缓慢,我想我    我节省了一些额外的东西,在一些时代之后,我的图表非常好    大。我该如何解决这个问题?

一点:在此评估期间,gpu利用率几乎为零    在某些时代之后,我认为出于某种原因,我的过程确实如此    noyt在GPU上运行

1 个答案:

答案 0 :(得分:0)

saver = tf.train.import_meta_graph(meta_path)

此行应该只运行一次。你可以在每个时代调用它,并为图形添加新的操作,因此评估会变慢。