是否可以在 kubernetes 吊舱之间共享单个GPU?
答案 0 :(得分:3)
如official doc所说
仅应在限制部分中指定GPU,这意味着:
您可以在不指定请求的情况下指定GPU限制,因为Kubernetes会默认使用限制作为请求值。
您可以在限制和请求中指定GPU,但是这两个值必须相等。
如果不指定限制,则无法指定GPU请求。 容器(和容器)不共享GPU 。没有过多使用GPU。
每个容器可以请求一个或多个GPU。无法请求一部分GPU。
此外,您可以按照this的讨论来获得更多信息。
答案 1 :(得分:0)
官方文档说Pod不能请求占用CPU的一部分。如果您在多个Pod中运行机器学习应用程序,则必须研究kubeflow。那些家伙解决了这个问题。
答案 2 :(得分:0)
是的,有可能-至少使用Nvidia GPU。
请不要在资源限制/请求中指定它。这样,来自所有Pod的容器将拥有对GPU的完全访问权限,就像它们是正常进程一样。
答案 3 :(得分:0)
是的,可以通过对调度程序进行一些更改来实现,github上的某个人请开源他们的解决方案,请看这里:https://github.com/AliyunContainerService/gpushare-scheduler-extender