将模型加载到Tensorflow服务容器中并使用protobuf与之通信

时间:2019-04-16 14:27:52

标签: tensorflow keras tensorflow-serving

我知道如何将模型加载到tensorflow服务容器中并通过http请求与之通信,但是我对如何使用protobuf感到困惑。使用protobuf的步骤是什么?我是否只需将模型加载到容器中,并使用如下所示的内容:

from tensorflow_serving.apis import 

request = predict_pb2.PredictRequest()
request.model_spec.name = 'resnet'
request.model_spec.signature_name = 'serving_default' 

还是在加载模型之前/之后,我必须做一些额外的步骤?

1 个答案:

答案 0 :(得分:1)

以下是在Python中对gRPC进行推理调用的示例代码:

resnet_client_grpc.py

在上面的同一文件夹中,您将找到调用REST端点的示例。