公开在Google AI平台上部署的AI应用程序的API端点

时间:2019-09-13 09:28:02

标签: google-cloud-platform google-api google-cloud-ml gcp-ai-platform-notebook

我已经在Google Cloud Platform上以“ SavedModel”格式部署了AI模型。当我通过AI平台上的“测试与使用”功能输入样本输入数据时,该模型即可做出预测。

现在,我想公开API端点,以便其他前端应用程序(例如Android)可以利用此部署的模型。这样做的程序是什么?在Google提供的文档中找不到太多帮助。

2 个答案:

答案 0 :(得分:0)

我不清楚您的要求是否100%明确,但是您可以使用cURL进行REST API调用。

ACCESS_TOKEN="$(gcloud auth application-default print-access-token)"
curl -X POST -d '{json-input}' https://ml.googleapis.com/v1/projects/{project-name}/models/{model-resource-name}:predict\?access_token\=${ACCESS_TOKEN}

其他资源:

答案 1 :(得分:0)

有很多路径可以服务您的自定义模型,但可以为该问题做出简明的答案,但是您可以按照以下解决方法通过API端点部署自定义模型:

  1. 将模型上传到存储桶中。
  2. 创建模型资源
  3. 创建版本。
  4. 部署
  5. 部署后,您可以在前端应用程序中调用端点。 (请记住,批量预测尚未在Python 3.x上实现)

端点URL请求语法:

POST https://ml.googleapis.com/v1/projects/{my-project}/models/{my-model}/versions/{my-version}:predict

不指定版本会将请求重定向到您的默认版本。

以下是有关使用Java library进行预测的其他信息,以及有关ML Engine predictions的概述。