对冻结图的支持会在tensorflow 2.0中继续还是不推荐使用? 我的意思是用于从save_model创建/优化冻结图的脚本和API。同样,用于运行推理的API也是如此。
假设将来会支持,在tensorflow 2.0中对冻结图进行推断的推荐方法是什么?
答案 0 :(得分:0)
TensorFlow 2.0将不支持冻结图API-freeze_graph.py
和converter_variables_to_constants
。
在2.0中,主要导出格式为SavedModels,因此构建了API以直接支持SavedModels。
可以使用v1.compat
路径来运行对现有冻结图的推断。
答案 1 :(得分:0)
答案 2 :(得分:0)
如果使用估算器对模型进行建模,则可以使用tf.estimator.Estimator.export_saved_model冻结模型。
model = tf.estimator.Estimator(
model_fn=model_fn,
model_dir=model_saved_dir)
def serving_input_receiver_fn():
# in here, my input is 512 x 512 single channel image
feature = tf.compat.v1.placeholder(tf.float32, shape=[None, 512, 512, 1], name="inputs")
return tf.estimator.export.TensorServingInputReceiver(feature, feature)
model.export_saved_model(model_saved_dir, serving_input_receiver_fn)
此代码可在tensorflow 2.0中使用
或者您使用keras,您可以参考官方网站上的步骤 https://www.tensorflow.org/tutorials/keras/save_and_load#savedmodel_format