我有一个冻结的推理图(frozen_inference_graph.pb
)和一个检查点(model.ckpt.data-00000-of-00001
,model.ckpt.index
),如何将它们部署到Tensorflow服务?服务需要SavedModel格式,如何转换成它?
我研究了Tensorflow,发现Deeplab v3 +提供了PASCAL VOC 2012模型,我在本地PC上运行训练,评估,可视化,但是我不知道如何在服务中部署它。
答案 0 :(得分:0)
您尝试过export_inference_graph.py吗?
准备对象检测张量流图以使用模型进行推理 配置和训练有素的检查站。输出推断 图,关联的检查点文件,冻结的推理图和 SavedModel