在Heroku上计算Node中的大数据

时间:2016-01-08 22:25:49

标签: node.js heroku

我有一项服务,我每天在后台运行一个大小约为140mb的数据库。我运行的计算要求我一次将所有140mb加载到Node中,大约一分钟后快速达到512mb的进程限制,Heroku重新启动该过程。

同时,一个快速的解决方案是将服务器增加到2倍,这样我就可以获得1 GB的RAM,但是在一个月左右的时间内,数据库也会超出这个数据库。

就Heroku而言,我的选择基本上是升级Dyno选项吗?由于这些是我每天做一次的计算,我宁愿在我的机器上本地运行它们并上传结果,而不是为Performance Dynos支付250-500美元/月。

我知道我也可以升级到Performance Dynos来运行这些服务,然后在完成后降级,但我正在寻找可以自动化的东西,而不是每天都要处理。

感谢阅读。

1 个答案:

答案 0 :(得分:0)

Heroku Scheduler似乎完全适合您的用例。您可以将任务计划为每天One-Off Dyno任意大小的任务,并且由于Heroku定价“按比例分配”,您只需支付在该Dyno上运行任务的时间。

我实际上并没有使用过这个,但是当我搜索并发现Heroku的这个功能时,我正准备在AWS上推荐一个类似的解决方案。