如何在Jetson TX1上使用Nvidia的Tensor RT运行预训练张量流模型?

时间:2017-02-24 19:33:10

标签: tensorflow deep-learning nvidia tensorrt

在Nvidia的博客中,他们介绍了他们的TensorRT如下:

  

NVIDIA TensorRT™是一款高性能神经网络推理引擎,适用于深度学习应用程序的生产部署。 TensorRT可用于快速优化,验证和部署经过培训的神经网络,以推断超大规模数据中心,嵌入式或汽车产品平台。

所以我想知道,如果我有一个预先训练过的Tensorflow模型,我可以在Jetson TX1的TensorRT中使用它进行推理吗?

2 个答案:

答案 0 :(得分:0)

基于来自Nvidia论坛的this post,你似乎可以使用TensorRT来推断caffemodel而不是tensorflow模型。 除了tensorRT之外,在tx1上构建张量流是另一个问题(参见这里:https://github.com/ugv-tracking/cfnet)。

答案 1 :(得分:0)

从JetPack 3.1开始,NVIDIA也为Tensorflow增加了TensorRT支持。因此,训练好的TF模型可以直接部署在Jetson TX1 / TK1 / TX2