在 AWS sagemaker 笔记本实例中使用 pytorch cuda

时间:2021-04-02 07:33:56

标签: amazon-ec2 pytorch amazon-sagemaker

在 colab 中,每当我们需要 GPU 时,我们只需点击 change runtime type 并将硬件加速器更改为 GPU

并且 cuda 可用,torch.cuda.is_available()True

如何做到这一点是AWS sagemaker,即开启cuda。 我是 AWS 新手,并尝试在 aws sagemaker 中使用 pytorch 训练模型,其中 Pytorch 代码首先在 colab 环境中进行测试。

我的 sagemaker notebook insatnce 是 ml.t2.medium

1 个答案:

答案 0 :(得分:0)

使用 AWS Sagemaker,您无需担心 GPU,您只需选择带有 GPU 的实例类型,Sagemaker 就会使用它。具体来说,ml.t2.medium 没有 GPU,但无论如何它都不是训练模型的正确方法。 基本上,您有 2 种使用 Sagemaker 的规范方法(请查看文档和示例),第一种是使用计算资源有限的笔记本使用预构建的图像启动训练作业,在这种情况下,当您调用 estimator 时您只需指定您想要的 instance type (您将选择一个带有 GPU 的,查看成本)。第二种方法是使用您自己的容器,将其推送到 ECR 并从控制台启动训练作业,您可以在其中指定实例类型。