针对在GPU(Tensorflow对象检测API)上训练的模型的TPU推断

时间:2020-03-05 08:41:10

标签: google-cloud-tpu

我尝试遵循以下指南,导出一些经过GPU训练的对象检测模型(基于Tensorflow对象检测API),以便在TPU中进行推理,

https://github.com/tensorflow/models/blob/master/research/object_detection/g3doc/tpu_exporters.md

  1. 其中一项要求中提到:
    “假定用户具有: PIPELINE_CONFIG:一个pipeline_pb2.TrainEvalPipelineConfig配置文件” ,但是我无法在线或在任何存储库中找到文件pipeline_pb2.TrainEvalPipelineConfig文件,我知道如何获取该文件吗?

  2. 什么是“ INPUT_PLACEHOLDER:模型的signature_def_map中输入占位符的名称”,在哪里可以找到它?

  3. 什么是“ INPUT_TYPE:输入节点的类型,可以是'image_tensor','encoded_image_string_tensor'或'tf_example'之一?我在哪里可以找到它?

  4. 在哪里可以找到与“使用在GPU上训练的对象检测模型在TPU上进行推理”有关的示例?

最好的问候, 周国华