AWS DynamoDB - 数据管道实际写入容量消耗

时间:2017-01-03 12:42:52

标签: amazon-web-services amazon-dynamodb amazon-data-pipeline data-pipeline

我创建了一个数据管道,用于从S3中提取数据并将其推送到DynamoDB中 管道开始成功运行 我已经将写入容量设置为 20000单位,几个小时后写入量减少了一半,现在它仍然以 3个单位的写入容量运行。

(写入容量没有变化。管道从阈值开始然后减少到3个单位并继续以此速率运行)

减少的原因是什么?有没有办法让它更快?
感谢。

1 个答案:

答案 0 :(得分:0)

我假设您使用现成的datapipeline模板将数据从S3复制到DynamoDB。该管道不会改变您的dynamodb表的容量(除非您修改管道以添加代码以便以编程方式增加它)。因此,如果DynamoDB的写入容量从20000变为3,则必须有人手动完成。我建议您在AWS账户中启用CloudTrail,这样您就可以在下次发生相同的事情时找出谁/何时进行更改。