我正在使用Tensorflow的tf.estimator API来构建一个广泛的线性模型和一个深度前馈神经网络,它们是联合训练的。已训练的模型已保存在磁盘上,并通过恢复已保存的模型进行预测。 通过使用tf.estimator API的预测函数进行实时预测,该函数在每次非常慢的调用中重新加载模型。是否有一种机制可以阻止模型重新加载:例如在内存中维护模型以进行连续调用?
答案 0 :(得分:1)
如果你已经有了答案,那就不确定了,但这似乎对我有用
https://github.com/marcsto/rl/blob/master/src/fast_predict.py