我的目标是尽可能快地减少预训练模型(Tensorflow Frozen Graph为Protobuf .pb文件)的大小和复杂性,以尽可能快地进行推理(在我的情况下使用Webcams进行实时对象检测) 。 (有关更多信息,请参阅我的项目回购:https://github.com/GustavZ/realtime_object_detection)
让我们来看看tensorflow对象检测API提供的预训练的ssd_mobilenet_v1_coco: link to ssd_mobilenet graph
推理不需要哪些图层(因此仅适用于已完成的培训),因此可以删除(从配置文件中使用offset 951
脚本导出新的冻结模型)?
如果能够对推理模型进行优化以及对我的特殊情况做出回答,我会非常高兴,因为我认为这可能是其他人感兴趣的。
编辑:我现在知道提供py tensorflow的export_inference_graph.py
脚本。但我没有使用它的经验,例如我如何知道哪些是真正必要的输入和输出节点,或者我如何从张量板读取它们?