NN模型格式转换tflite-> onnx

时间:2020-05-19 16:14:55

标签: tensorflow onnxruntime

我想将托管模型TensorFlow-Lite hosted models主要是移动网络转换为ONNX格式。因此,我想尝试这些托管模型的量化版本,并使用onnx-runtime运行它们。

将这些模型转换为onnx-runtime使用的正确方法是什么?

2 个答案:

答案 0 :(得分:0)

我对ONNX还是很陌生,但是据官方tutorial page称,没有将TFLite转换为ONNX的转换器。

您仍然可以使用TensorFlow-> ONNX转换路径。当您下载其中一个TFLite托管模型时,您将获得一个存档,其中包含用于转换(xxx_frozen.pb)的原始TensorFlow冻结图形以及转换后的.tflite。您可以按照以下说明将冻结的图形格式输入到TensorFlow-ONNX转换器中:

https://github.com/onnx/tensorflow-onnx#getting-started

答案 1 :(得分:0)

有一个 tflite 到 onnx 转换器。我试过这个,它对我有用。我不确定 tensorflow-lite 托管模型,但您可以尝试一下。就我而言,我将此转换器用于我开发的模型,并且效果很好。

import tflite2onnx

tflite_path = "path/to/the/tflitemodel"
onnx_path = "path/where/you/want/to/save/your/model" #modelname.onnx
tflite2onnx.convert(tflite_path,onnx_path)