我知道可以在Google Cloud上部署用于培训作业的自定义容器,并且我已经能够使用Command来运行相同的容器。
gcloud ai-platform jobs submit training infer name --region some_region --master-image-uri=path/to/docker/image --config config.yaml
培训工作已成功完成,并且模型已成功获得,现在我想使用该模型进行推理,但是问题是我的代码具有系统级依赖关系,因此我必须对体系结构进行一些修改为了让它一直运行。这就是首先要为培训工作提供定制容器的原因。
该文档仅适用于培训部分和推断部分(如果可能的话),而据我所知,尚未对定制容器进行探索。
培训部分文档可用on this link
我的问题是,是否可以在Google Cloud-ml上出于推理目的部署自定义容器?