我在S3中有一些数据,我想创建一个lambda函数来预测已部署的aws sagemaker端点的输出,然后将输出再次放入S3。在这种情况下是否有必要创建一个link中所述的api网关?在lambda函数中,我必须输入。我希望放置(在何处查找数据,如何调用端点,在何处放置数据)
import boto3
import io
import json
import csv
import os
client = boto3.client('s3') #low-level functional API
resource = boto3.resource('s3') #high-level object-oriented API
my_bucket = resource.Bucket('demo-scikit-byo-iris') #subsitute this for your s3 bucket name.
obj = client.get_object(Bucket='demo-scikit-byo-iris', Key='foo.csv')
lines= obj['Body'].read().decode('utf-8').splitlines()
reader = csv.reader(lines)
import io
file = io.StringIO(lines)
# grab environment variables
runtime= boto3.client('runtime.sagemaker')
response = runtime.invoke_endpoint(
EndpointName= 'nilm2',
Body = file.getvalue(),
ContentType='*/*',
Accept = 'Accept')
output = response['Body'].read().decode('utf-8')
我的数据是2列浮点数的csv文件,没有标题,问题是行返回字符串列表(每行是该列表的元素:['11.55,65.23','55 .68,69.56' ...])调用工作正常,但响应也是一个字符串:output = '65 .23 \ n,65.23 \ n,22.56 \ n,...'
那么如何将此输出作为csv文件保存到S3
谢谢
答案 0 :(得分:2)
如果您安排了Lambda函数,则不需要API网关。但是,如果预测动作将由用户(例如,应用程序)触发,则将需要。
调用调用端点时,实际上是在调用SageMaker端点,该端点与API Gateway端点不同。
SageMaker的常见体系结构是:
根据您描述的情况,我不能说您的任务是学术任务还是生产任务。
那么,如何从Lambda中将数据另存为CSV文件?
我相信您可以解析输出,然后将文件上传到S3。在这里,您可以手动解析或使用lib解析,使用boto3可以上传文件。模型的输出取决于您在SageMaker映像上的实现。因此,如果您需要其他格式的响应数据,则可能需要使用custom image。我通常使用一个自定义图像,该图像可以定义我要如何处理请求/响应中的数据。
就生产任务而言,我当然建议您从SageMaker中检查“批量转换”作业。您可以提供输入文件(S3路径)和目标文件(另一个S3路径)。 SageMaker将运行批次预测,并将持久保存结果文件。此外,您无需将模型部署到端点,运行此作业时,将创建端点的实例,下载数据进行预测,进行预测,上载输出,然后关闭实例。您只需要训练有素的模型即可。
以下有关批量转换作业的信息:
https://docs.aws.amazon.com/sagemaker/latest/dg/how-it-works-batch.html
https://docs.aws.amazon.com/sagemaker/latest/dg/ex1-batch-transform.html
希望对您有所帮助。
致谢。