无法将FrozenGraphic.pb文件转换为.uff模型以在Jetson Nano上使用

时间:2020-04-29 22:02:36

标签: python tensorflow nvidia-jetson-nano

一段时间以来,我一直在与Tensorflow一起创建模型,以用于我的Nvidia GPU。一直在试验Jetson Nano,需要将我的一些模型转换为可在Nano上运行的Nvidia的TensorRT使用。我搜索了一些时间,试图使其无法成功运行。根据我从别人那里挖来的东西,这不是一个直观的过程。

我对Nvidia有一个开放的问题:https://forums.developer.nvidia.com/t/converting-tensorflow-pb-models-to-tensorrt-models-to-run-on-the-nano/121402,但我知道这个社区的规模明显更大。

我已尝试根据此线程中的建议使用tensorflow.python.tools.freeze_graph: Converting Tensorflow Frozen Graph to UFF for TensorRT inference

我想我很接近,运行时出现以下错误:

python3 -m tensorflow.python.tools.freeze_graph --input_saved_model_dir /home/pal/deeppress/dp/trained_models/cardetect/saved_model/ --output_node_names test_Layers

File "/home/pal/.local/lib/python3.6/site-packages/tensorflow/python/framework/graph_util_impl.py", line 270, in convert_variables_to_constants
    inference_graph = extract_sub_graph(input_graph_def, output_node_names)

File "/home/pal/.local/lib/python3.6/site-packages/tensorflow/python/util/deprecation.py", line 324, in new_func
    return func(*args, **kwargs)

File "/home/pal/.local/lib/python3.6/site-packages/tensorflow/python/framework/graph_util_impl.py", line 182, in extract_sub_graph
    _assert_nodes_are_present(name_to_node, dest_nodes)

File "/home/pal/.local/lib/python3.6/site-packages/tensorflow/python/framework/graph_util_impl.py", line 137, in _assert_nodes_are_present
    assert d in name_to_node, "%s is not in graph" % d
AssertionError: test_Layers is not in graph

三个问题: 1)这是将我的TensorFlow模型转换为.uff格式的最佳方法吗?如果有更简单的方法,请分享:) 2)如何知道要指定的层? 3)我可以只指定testmode.uff吗?

这是该目录中文件的示例,我指向已保存的模型目录: enter image description here

非常感谢您!

0 个答案:

没有答案