试图在Heroku上为ML(pytorch)模型提供服务,但子弹尺寸太大

时间:2018-09-09 18:10:42

标签: heroku flask pytorch

我有一个训练有素的pytorch ML模型,我想将其发布为Heroku / Flask应用。该模型的大小约为200 MB,这使我超出了Heroku上的块大小限制。我试图将模型保存在S3存储桶中(使用heroku的Bucketeer),以便heroku可以在初始化时仅一次使用boto3下载模型,但是随后出现超时错误。有什么好方法可以为heroku服务相对较大的模型吗?如果没有,我应该迁移到哪里?

我应该说我还尝试了将所有内容迁移到Google App Engine标准,但是由于当前尚不支持几个所需的库,因此无法正常工作。我也无法直接迁移到AWS,因为前一阵子我的AWS帐户被黑,他们基本上禁止我再次使用其服务。 (尽管他们的客户支持了解到该黑客行为,但他们的客户支持能力不足,无法解决该问题。)。在这一点上,我真是机智,我不想再花几天时间尝试在没有合理预期的情况下让新环境正常工作。...

感谢您的帮助,谢谢!

0 个答案:

没有答案