我使用Tensorflow训练了语言模型,如tutorial
中所述对于训练,我使用了以下命令。
bazel-bin/tensorflow/models/rnn/ptb/ptb_word_lm --data_path=./simple-examples/data/ --model small
培训成功,最后有以下o / p。
Epoch: 13 Train Perplexity: 37.196
Epoch: 13 Valid Perplexity: 124.502
Test Perplexity: 118.624
但我仍然感到困惑,存储训练模型的位置以及如何使用它。
答案 0 :(得分:0)
演示代码可能不包括保存模型的能力;您可能希望显式使用tf.train.Saver
来保存和恢复检查点之间的变量。
根据文件,它非常简单。在下面的例子中,我保存了 模型中的所有变量。相反,您可以按照examples选择要保存的变量。
# ...
tf.initialize_all_variables().run()
####################################################
# Add ops to save and restore all the variables.
####################################################
saver = tf.train.Saver()
for i in range(config.max_max_epoch):
lr_decay = config.lr_decay ** max(i - config.max_epoch, 0.0)
m.assign_lr(session, config.learning_rate * lr_decay)
print("Epoch: %d Learning rate: %.3f" % (i + 1, session.run(m.lr)))
train_perplexity = run_epoch(session, m, train_data, m.train_op,
verbose=True)
print("Epoch: %d Train Perplexity: %.3f" % (i + 1, train_perplexity))
valid_perplexity = run_epoch(session, mvalid, valid_data, tf.no_op())
print("Epoch: %d Valid Perplexity: %.3f" % (i + 1, valid_perplexity))
####################################################
# Save the variables to disk.
####################################################
save_path = saver.save(session, "/tmp/model.epoch.%03d.ckpt" % (i + 1))
print("Model saved in file: %s" % save_path)
# ....
就我而言,每个检查点文件的磁盘大小为18.61M(--model small
)。
关于如何使用该模型,只需按照doc从已保存的文件中恢复检查点。那么你可以随意使用它。