我正在用Tensorflow和MLEngine弄湿我的脚 根据{{1}},我使用Object Detection API培训了一个包含自定义数据的模型。
导出的模型大小为190.5MB。
本地预测工作正常。但是当使用gcloud时,MLEngine会给我以下错误:
faster_rcnn_resnet101_coco_11_06_2017
使用NodeJS client library时出现以下错误:
"error": {
"code": 429,
"message": "Prediction server is out of memory, possibly because model size
is too big.",
"status": "RESOURCE_EXHAUSTED"
}
我用于测试预测的图像是PNG,尺寸为700px * 525px(365kb)和373px * 502px(90kb)
我不确定如何进行。
对象检测是否需要比MLEngine提供更多的内存?
这个模型的尺寸真的是问题,我该如何改进呢?
感谢您的帮助和想法!
答案 0 :(得分:0)
有page in documentation解释如何在在线预测的上下文中解释http状态代码。在这种特殊情况下,运行模型的节点内存不足(请参阅使用ML引擎的Google员工回答较旧问题的this)。建议的解决方案是减小模型大小和/或使用较小的批量大小(默认设置为64 records per batch)。考虑到您的模型已经小于maximum 250 MB,您可能需要先考虑后一种解决方案。