使用TensorFlow开发的神经网络如何记住旧记忆?

时间:2018-01-10 07:27:49

标签: tensorflow neural-network lstm training-data rnn

我是TensorFlow和NN的新手。我开发了一个张量模型,用LSTM来表示文本的情感。我的模型训练直到给定的时期或迭代次数并将模型保存一定数量。 (即,我在每5个时期之后保存模型。)一旦完成训练,我会拿起最后一个检查点文件并将其用于预测。

但是当我用新数据再次运行我的训练代码时,我怀疑了。我感到困惑。

过去的数据存储器是否与新创建的检查点文件有关。例如,当我使用epoch=150训练模型时,我得到了./models/tensorflow/model-150。现在我又恢复了模型-150并开始使用新数据进行训练,因为它保存了逻辑步骤

saver.save(sess, os.path.join(model_path, 'model'), global_step=epoch)

我没有看到模型-151而不是旧模型-1被替换为新模式-1。在这里我想知道的是,第一个模型 - 150记忆是否存在第二次训练和创建模型 - 150不是?

1 个答案:

答案 0 :(得分:0)

是的你仍然拥有网络中150个第一个时代的效果,只是新文件与你在global_step中提供的纪元号保存在一起,如果它已经存在,它将不会在网络中查看培训。我建议您改为编写saver.save(sess, os.path.join(model_path, 'model'), global_step=epoch+150)(或者更清楚地读取检查点名称中先前的历元数,然后将其添加到您的global_step中)