在Nvidia的博客中,他们介绍了他们的TensorRT如下:
NVIDIA TensorRT™是一款高性能神经网络推理引擎,适用于深度学习应用程序的生产部署。 TensorRT可用于快速优化,验证和部署经过培训的神经网络,以推断超大规模数据中心,嵌入式或汽车产品平台。
所以我想知道,如果我有一个预先训练过的Tensorflow模型,我可以在Jetson TX1的TensorRT中使用它进行推理吗?
答案 0 :(得分:0)
基于来自Nvidia论坛的this post,你似乎可以使用TensorRT来推断caffemodel而不是tensorflow模型。 除了tensorRT之外,在tx1上构建张量流是另一个问题(参见这里:https://github.com/ugv-tracking/cfnet)。
答案 1 :(得分:0)
从JetPack 3.1开始,NVIDIA也为Tensorflow增加了TensorRT支持。因此,训练好的TF模型可以直接部署在Jetson TX1 / TK1 / TX2
中