使用S3存储桶csv数据的AWS数据迁移服务

时间:2018-08-22 00:27:45

标签: amazon-s3 amazon-cloudwatch amazon-data-pipeline aws-dms

我有一个用例,我需要每天将来自s3存储桶的csv数据导入dynamoDB。我当时正在考虑将cloudwatch与ECS任务一起移至dynamoDB。该文件将超过1GB,记录数量可能接近1000万。

然后,我了解了这篇文章AWS DataMigration。这对我来说看起来很完美,但是想知道如何安排它吗?在cloudwatch中找不到任何东西!

还是应该使用数据管道?

0 个答案:

没有答案