训练模型时,首先需要使用以下实例化该模型:
estimator = tf.estimator.DNNClassifier(
model_dir=model_dir,
feature_columns=[tf.feature_column.numeric_column(key=str(i)) for i in range(2, eval_data.shape[1] - 1)],
hidden_units=hidden_units,
n_classes=args['num_classes'],
config=config,
dropout=dropout,
optimizer=tf.train.AdamOptimizer(
learning_rate=args['learning_rate'],
))
训练后,在model_dir
所指示的路径下将有一个目录,其中包含检查点和其他工件:
model_dir/
my_model
checkpoint
eval
graph.pbtxt
model.ckpt-0.data-00000-of-00002
model.ckpt-0.data-00001-of-00002
model.ckpt-0.index
model.ckpt-0.meta
问题是,如果我想对该模型做更多的工作(除了服务,在这种情况下,我可以导出模型并使用TF Serving)在其他地方(例如,我想重新实例化该模型),例如更多的培训,评估等,我首先需要实例化模型。问题是我需要以某种方式跟踪所有这些参数的值。
有没有一种方法可以通过指向model_dir
来加载模型,并以某种方式将模型的实例加载到内存中?