在 colab 中,每当我们需要 GPU 时,我们只需点击 change runtime type
并将硬件加速器更改为 GPU
并且 cuda 可用,torch.cuda.is_available()
为 True
如何做到这一点是AWS sagemaker,即开启cuda。 我是 AWS 新手,并尝试在 aws sagemaker 中使用 pytorch 训练模型,其中 Pytorch 代码首先在 colab 环境中进行测试。
我的 sagemaker notebook insatnce 是 ml.t2.medium
答案 0 :(得分:0)
使用 AWS Sagemaker,您无需担心 GPU,您只需选择带有 GPU 的实例类型,Sagemaker 就会使用它。具体来说,ml.t2.medium
没有 GPU,但无论如何它都不是训练模型的正确方法。
基本上,您有 2 种使用 Sagemaker 的规范方法(请查看文档和示例),第一种是使用计算资源有限的笔记本使用预构建的图像启动训练作业,在这种情况下,当您调用 estimator 时您只需指定您想要的 instance type (您将选择一个带有 GPU 的,查看成本)。第二种方法是使用您自己的容器,将其推送到 ECR 并从控制台启动训练作业,您可以在其中指定实例类型。