我创建了一个数据管道,用于从S3中提取数据并将其推送到DynamoDB中 管道开始成功运行 我已经将写入容量设置为 20000单位,几个小时后写入量减少了一半,现在它仍然以 3个单位的写入容量运行。
(写入容量没有变化。管道从阈值开始然后减少到3个单位并继续以此速率运行)
减少的原因是什么?有没有办法让它更快?
感谢。
答案 0 :(得分:0)
我假设您使用现成的datapipeline模板将数据从S3复制到DynamoDB。该管道不会改变您的dynamodb表的容量(除非您修改管道以添加代码以便以编程方式增加它)。因此,如果DynamoDB的写入容量从20000变为3,则必须有人手动完成。我建议您在AWS账户中启用CloudTrail,这样您就可以在下次发生相同的事情时找出谁/何时进行更改。