我正在尝试使用tf-serving部署我的火炬模型。我已将我的火炬模型导出到onnx。如何生成用于tf服务的PB模型?
答案 0 :(得分:6)
使用onnx/onnx-tensorflow转换器工具作为ONNX的Tensorflow后端。
安装onnx-tensorflow:pip install onnx-tf
使用命令行工具进行转换:
onnx-tf convert -t tf -i /path/to/input.onnx -o /path/to/output.pb
或者,您可以通过python API进行转换。
import onnx
from onnx_tf.backend import prepare
onnx_model = onnx.load("input_path") # load onnx model
tf_rep = prepare(onnx_model) # prepare tf representation
tf_rep.export_graph("output_path") # export the model