标签: google-cloud-platform cloud inference
我将模型部署到了Google云引擎上,并且运行良好。我可以毫无疑问地进行推断。我正在考虑将我的模型分布到多个区域,以确保位于另一个区域的朋友可以访问它,并且推理调用不会出现长时间延迟。阅读文档后,我有些困惑。有没有做过此事的人可以指导我正确的方向?
谢谢