Google Cloud MLEngine预测错误429

时间:2018-05-25 17:10:14

标签: tensorflow object-detection google-cloud-ml

我正在用Tensorflow和MLEngine弄湿我的脚 根据{{​​1}},我使用Object Detection API培训了一个包含自定义数据的模型。

导出的模型大小为190.5MB。

本地预测工作正常。但是当使用gcloud时,MLEngine会给我以下错误:

faster_rcnn_resnet101_coco_11_06_2017

使用NodeJS client library时出现以下错误:

"error": {
    "code": 429,
    "message": "Prediction server is out of memory, possibly because model size 
    is too big.",
    "status": "RESOURCE_EXHAUSTED"
 }

我用于测试预测的图像是PNG,尺寸为700px * 525px(365kb)和373px * 502px(90kb)

我不确定如何进行。
对象检测是否需要比MLEngine提供更多的内存? 这个模型的尺寸真的是问题,我该如何改进呢?

感谢您的帮助和想法!

1 个答案:

答案 0 :(得分:0)

page in documentation解释如何在在线预测的上下文中解释http状态代码。在这种特殊情况下,运行模型的节点内存不足(请参阅使用ML引擎的Google员工回答较旧问题的this)。建议的解决方案是减小模型大小和/或使用较小的批量大小(默认设置为64 records per batch)。考虑到您的模型已经小于maximum 250 MB,您可能需要先考虑后一种解决方案。