加载并运行测试.trt模型

时间:2020-03-19 03:58:15

标签: tensorflow yolo tensorrt nvidia-jetson

我需要在NVIDIA JETSON T2中运行我的模型,所以我将工作的yoloV3模型转换为tensorRT(.trt格式)( https://towardsdatascience.com/have-you-optimized-your-deep-learning-model-before-deployment-cdc3aa7f413d )。此链接帮助我转换了将Yolo模型转换为.trt。但是将模型转换为.trt模型后,我需要测试它是否可以正常工作(即,检测是否足够好)。我找不到用于加载和测试.trt模型的任何示例代码。如果有人可以帮助我,请在答案部分或任何链接中提供示例代码以供参考。

1 个答案:

答案 0 :(得分:1)

您可以使用此代码段加载并执行 TRT模型的推断。 这是在 Tensorflow 2.1.0 Google Colab 环境中执行的。

fitness.val

from tensorflow.python.compiler.tensorrt import trt_convert as trt from tensorflow.python.saved_model import tag_constants saved_model_loaded = tf.saved_model.load(output_saved_model_dir, tags=[tag_constants.SERVING]) signature_keys = list(saved_model_loaded.signatures.keys()) print(signature_keys) # Outputs : ['serving_default'] graph_func = saved_model_loaded.signatures[signature_keys[0]] graph_func(x_test) # Use this to perform inference TensorRT优化模型的位置,格式为 SavedModel

从这里,您可以添加您的测试方法来确定 pre 后处理模型的性能。

编辑:

output_saved_model_dir

以下是用于 Tensorflow RT优化模型的转换保存的代码。