一段时间以来,我一直在与Tensorflow一起创建模型,以用于我的Nvidia GPU。一直在试验Jetson Nano,需要将我的一些模型转换为可在Nano上运行的Nvidia的TensorRT使用。我搜索了一些时间,试图使其无法成功运行。根据我从别人那里挖来的东西,这不是一个直观的过程。
我对Nvidia有一个开放的问题:https://forums.developer.nvidia.com/t/converting-tensorflow-pb-models-to-tensorrt-models-to-run-on-the-nano/121402,但我知道这个社区的规模明显更大。
我已尝试根据此线程中的建议使用tensorflow.python.tools.freeze_graph: Converting Tensorflow Frozen Graph to UFF for TensorRT inference
我想我很接近,运行时出现以下错误:
python3 -m tensorflow.python.tools.freeze_graph --input_saved_model_dir /home/pal/deeppress/dp/trained_models/cardetect/saved_model/ --output_node_names test_Layers
File "/home/pal/.local/lib/python3.6/site-packages/tensorflow/python/framework/graph_util_impl.py", line 270, in convert_variables_to_constants
inference_graph = extract_sub_graph(input_graph_def, output_node_names)
File "/home/pal/.local/lib/python3.6/site-packages/tensorflow/python/util/deprecation.py", line 324, in new_func
return func(*args, **kwargs)
File "/home/pal/.local/lib/python3.6/site-packages/tensorflow/python/framework/graph_util_impl.py", line 182, in extract_sub_graph
_assert_nodes_are_present(name_to_node, dest_nodes)
File "/home/pal/.local/lib/python3.6/site-packages/tensorflow/python/framework/graph_util_impl.py", line 137, in _assert_nodes_are_present
assert d in name_to_node, "%s is not in graph" % d
AssertionError: test_Layers is not in graph
三个问题: 1)这是将我的TensorFlow模型转换为.uff格式的最佳方法吗?如果有更简单的方法,请分享:) 2)如何知道要指定的层? 3)我可以只指定testmode.uff吗?
这是该目录中文件的示例,我指向已保存的模型目录: enter image description here
非常感谢您!