用于在一段时间内捕获数据的存储空间效率

时间:2016-02-18 10:13:18

标签: python amazon-web-services storage google-cloud-storage

我想存储有关交易所资产贷款利率的数据。使用this API call

收集数据

未知数据变化的频率。我最初的计划是每秒查询API,如果new_data!= previous_data则存储new_data。

似乎数据大小约为5kb,比如说数据每10秒就会改变一次,这意味着一年内:

total_required_storage_space = 5 * 6 * 60 * 24 * 365 = 15,768,000 KB = 15.04 GB

但是,如果数据每秒更改一次,那么这将是150GB。

有人可以评论我如何才能提高效率吗?对于我的电脑来说,这是一个相当大的空间。最终我想在服务器上运行,有没有人有一个很好的指导初学者如何做到这一点?也许这种存储空间对于AWS或某种类似的云服务来说并不是很多?

0 个答案:

没有答案