我想知道,如果可能的话,请问您有关安排CSV文件的最佳方式的反馈和意见,该CSV文件将按计划上传到DynamoDB。
我们有从CRM中导出的名称列表(导出的CSV列表每天更新,如果我们从CRM中删除名称,它将缩小)
我们每天都通过SFTP接收CSV文件,我想将其上传到DynamoDB以便在我们的云程序中使用。我对AWS服务非常陌生,在这里工作的地方也很陌生,经过研究后,我认为我可以使用类似这样的流程:
用于SFTP的AWS传输-> S3存储桶->(计划)-> DynamoDB
对于日程安排,我正在考虑使用数据管道或预定的Lambda操作。
期待您的答复和建议,如果可以提供更多信息,请告诉我。
答案 0 :(得分:0)
您的方法已经很好地设计了。您仍然可以优化一个细节,这就是触发您的AWS Lambda函数的方式。您提到了数据管道或调度的函数调用,但是更好和更简单的方法是使用S3 Events to trigger your AWS Lambda function。这样一来,只要有新对象到达S3,您就可以触发AWS Lambda函数。
如果您使用AWS SAM来配置您的AWS资源,则在SAM Github存储库中针对该用例有一个示例:https://github.com/awslabs/serverless-application-model/blob/master/examples/2016-10-31/s3_processor/template.yaml