Kubernetes支持GPU作为实验性功能。它在谷歌容器引擎中有效吗?我是否需要一些特殊配置来启用它?我希望能够运行机器学习工作负载,但希望使用CloudML中无法使用的Python 3。
答案 0 :(得分:5)
Google容器引擎上的GPU现在可以在Alpha中使用。 Sign up form
请注意alpha cluster limitations适用:它们无法升级,并且会在30天内自动删除。
免责声明:我在GCP工作。
答案 1 :(得分:2)
我担心这不支持开箱即用。在Google Compute Engine(GCE)中创建常规实例时,您可以为您的机器选择GPU规格。另一方面,在创建群集时,这些选项不可用。我想这迟早会有,但现在不行。
作为替代方案,您可以创建多个GCE实例并使用kubeadm之类的工具或像Kubernetes这样的指南构建集群:https://github.com/kelseyhightower/kubernetes-the-hard-way
答案 2 :(得分:0)
我没有对它进行测试,但只要GPU vm只是机器类型,我会说这两个步骤应该可行:
更新:自定义机器类型的主站点:https://cloud.google.com/custom-machine-types/
1-创建GPU自定义计算机类型:https://cloud.google.com/compute/docs/gpus/
您可以将GPU添加到您可以在区域中创建的任何非共享核心预定义计算机类型或自定义计算机类型
2-创建节点时,在群集或节点池中选择自定义计算机类型:https://cloud.google.com/container-engine/docs/clusters/operations
- machine-type:用于此容器群集中实例的Google Compute Engine计算机类型(例如n1-standard-1)。如果未指定,则默认机器类型为n1-standard-1