我在tensorflows script
上使用optimize_for_inderence.py
ssd_mobilenet_v1_coco model
并使用以下命令:
python -m tensorflow.python.tools.optimize_for_inference \
--input /path/to/frozen_inference_graph.pb \
--output /path/to/optimized_inference_graph.pb \
--input_names=image_tensor \
--output_names=detection_boxes,detection_scores,num_detections,detection_classes
它没有错误,但是如果我想使用Model .pb
或Tensorboard
创建的Inference
文件,则会出现以下错误:
ValueError:graph_def在节点u'ToFloat'处无效:输入张量'image_tensor:0'无法将float32类型的张量转换为uint8类型的输入。
查看Tensorbaord可视化的原始图表:
正如您所见,节点ToFloat
直接位于image_tensor
输入
因此优化显然出现了问题。但是什么?
答案 0 :(得分:4)
我看到一个类似的错误"节点ExpandDims_6的输入0从input_feed传递浮点数:0与预期的int64"不兼容加载optimize_for_inference工具生成的模型文件时。
Pete的评论"删除未使用节点的新图变换方法可能更强大? https://github.com/tensorflow/tensorflow/tree/master/tensorflow/tools/graph_transforms/#optimizing-for-deployment" on https://github.com/tensorflow/tensorflow/issues/8242似乎建议我们应该使用新的transform_graph工具。
在更新后的TensorFlow Mobile文档https://www.tensorflow.org/mobile中没有提及optimize_for_inference工具,也建议使用transform_graph工具。
当我怀疑罪魁祸首是在优化工具中时,我看到了你的问题。谢谢你。只是尝试了transform_graph工具,它既可以使用转换后的模型,也可以在转换后进一步记忆模型。下面是我使用的3个命令freeze-transform-memmap:
python tensorflow/python/tools/freeze_graph.py \
--input_meta_graph=/tmp/ckpt4.meta \
--input_checkpoint=/tmp/ckpt4 \
--output_graph=/tmp/ckpt4_frozen.pb \
--output_node_names="softmax,lstm/initial_state,lstm/state" \
--input_binary=true
bazel-bin/tensorflow/tools/graph_transforms/transform_graph \
--in_graph=/tmp/ckpt4_frozen.pb \
--out_graph=/tmp/ckpt4_frozen_transformed.pb \
--inputs="convert_image/Cast,input_feed,lstm/state_feed" \
--outputs="softmax,lstm/initial_state,lstm/state" \
--transforms='
strip_unused_nodes(type=float, shape="1,299,299,3")
fold_constants(ignore_errors=true)
fold_batch_norms
fold_old_batch_norms'
bazel-bin/tensorflow/contrib/util/convert_graphdef_memmapped_format \
--in_graph=/tmp/ckpt4_frozen_transformed.pb \
--out_graph=/tmp/ckpt4_frozen_transformed_memmapped.pb