我尝试遵循以下指南,导出一些经过GPU训练的对象检测模型(基于Tensorflow对象检测API),以便在TPU中进行推理,
https://github.com/tensorflow/models/blob/master/research/object_detection/g3doc/tpu_exporters.md
其中一项要求中提到:
“假定用户具有:
PIPELINE_CONFIG:一个pipeline_pb2.TrainEvalPipelineConfig配置文件”
,但是我无法在线或在任何存储库中找到文件pipeline_pb2.TrainEvalPipelineConfig文件,我知道如何获取该文件吗?
什么是“ INPUT_PLACEHOLDER:模型的signature_def_map中输入占位符的名称”,在哪里可以找到它?
什么是“ INPUT_TYPE:输入节点的类型,可以是'image_tensor','encoded_image_string_tensor'或'tf_example'之一?我在哪里可以找到它?
在哪里可以找到与“使用在GPU上训练的对象检测模型在TPU上进行推理”有关的示例?
最好的问候, 周国华
答案 0 :(得分:1)
原型定义在: https://github.com/tensorflow/models/blob/2dfd1e6388c06eb47945f2592d5dad7609172491/research/object_detection/protos/pipeline.proto#L14 您应该使用与培训中相同的配置。
它位于您导出的SavedModel中的MetaGraphDef中。 SavedModel:https://github.com/tensorflow/tensorflow/blob/master/tensorflow/core/protobuf/saved_model.proto MetaGraphDef.signature_def:https://github.com/tensorflow/tensorflow/blob/0bf070c54d015ee86de8328d8bdb5582dc0f6d93/tensorflow/core/protobuf/meta_graph.proto#L89
这取决于您要馈送的数据类型。定义于https://github.com/tensorflow/models/blob/2dfd1e6388c06eb47945f2592d5dad7609172491/research/object_detection/exporter.py#L199
您可以在https://github.com/tensorflow/models/blob/2dfd1e6388c06eb47945f2592d5dad7609172491/research/object_detection/tpu_exporters/export_saved_model_tpu_lib_test.py#L56上找到示例 基本上,这是在给定检查点和管道配置的情况下导出TPU SavedModel。