我是一位相对经验丰富的AI从业者,但是,在部署这些模型时,我是一个完全的新手。我遵循了一个在线教程,该教程使用Docker Desktop在本地部署了该模型。它为前端和后端创建了一堆容器。我在每个容器中安装了Tensorflow以运行AI模型(在Dockerfile中运行RUN pip3 install tensorflow)。但是,我不能在Kubernetes上部署它。
我选择了允许将Docker Stacks发送到Kubernetes的选项。运行docker images
时,我既可以看到前端图像,也可以看到后端图像。我要做的下一步是创建一个GCP项目并在其中创建集群。然后,我将这些图像以特定格式gcr.io/project/name:tag
标记到前端和后端之后,将它们推送了。然后,我部署了这两者,然后公开了它们以及fdep(前端)和bdep(后端)。它们都正常运行,如下所示:
[![在此处输入图片描述] [1]] [1]
但是,当我转到前端外部ip并运行模型时,什么也没发生。好像后端什么都不输出。 这是我使用邮递员在后端外部IP上发布请求时得到的结果: [![在此处输入图片描述] [2]] [2]
这里有任何帮助。我在做什么错了?
答案 0 :(得分:1)
由于该多容器docker应用最初不是为kubernetes开发的,因此请确保在为后端生成服务时指定名称,
kubectl公开部署bdep --port 8081 --name(名称,即前端应用程序期望)
在您的情况下,如果没有选项--name,则服务名称默认为部署名称“ bdep”,但是前端应用程序期望使用名称“ backend”。