当我尝试从s3加载数据时,sagemaker内核中的Jupyter Notebook一直在消亡

时间:2019-10-31 14:35:14

标签: python amazon-s3 jupyter-notebook amazon-sagemaker

在sagemaker jupyter笔记本中,我运行以下代码从s3存储桶中加载数据。

import boto3
import pandas as pd
from sagemaker import get_execution_role

role = get_execution_role()
bucket='bucketname'
data_key = 'filename'
data_location = 's3://{}/{}'.format(bucket, data_key)

data=pd.read_csv(data_location)

然后内核死了,我弹出窗口说“内核似乎已经死亡。它将自动重新启动。”

是否有一种简便的方法可以在sagemaker中从s3加载数据?

1 个答案:

答案 0 :(得分:0)

很可能您创建了一个实例太小的笔记本。大多数人都进行ml.t2.medium演示,但可能需要ml.t2.large或更高版本。

请记住,t2是第二代产品,并且AWS保证,下一代(t3)至少具有与上一代产品一样的成本效益。即使用ml.t3.mediumml.t3.large