尝试使用gcloud ml-engine predict
ERROR: (gcloud.ml-engine.predict) HTTP request failed. Response: {
"error": {
"code": 429,
"message": "Prediction server is out of memory, possibly because model size is too big.",
"status": "RESOURCE_EXHAUSTED"
}
}
我的模型大小是151 MB,我也使用Tensorflow 1.4版,它不需要变量文件夹。执行预测时,它使用超过2gb。我使用的是初始版本的修改版本。
答案 0 :(得分:2)
目前,用于预测的机器只有2 GB的RAM。我们正在努力为这项服务带来更多RAM的机器。
那就是说,"香草"初始模型通常与您报告的磁盘大小相同,但往往容易适应2 GB的RAM。鉴于您所做的更改,是否预计RAM会爆炸?