我在ML Engine上训练了一个物体检测模型,并通过调用:
将其导出 gcloud ml-engine local predict --model-dir ../saved_model --json-instances=inputs.json --runtime-version=1.2
然后我通过调用:
成功地在本地测试了预测 gcloud ml-engine versions create ${YOUR_VERSION} --model ${YOUR_MODEL} --origin=${YOUR_GCS_BUCKET}/saved_model --runtime-version=1.2
其中 inputs.json 包含:
{“b64”:“base64 encoded png image”}
当我尝试使用以下命令在ML Engine上创建模型版本时:
ERROR: (gcloud.ml-engine.versions.create) Bad model detected with error: "Error loading the model: Could not load model. "
它失败并显示以下消息:
input_type=encoded_image_string_tensor
ML引擎是否不支持input_type=image_tensor
的模型版本?如何获取有关错误的更多详细信息?
使用带name =[A, B , C , D , E , F ]
cls=[1, 2 , 3 , 2 , 4 , 1 ]
score=[0.1, 0.2 , 0.5 , 0.3 , 1 , 0.8 ]
的导出模型在ml-engine上创建模型版本可以正常工作。
答案 0 :(得分:0)
您是否可以验证是否使用tensorflow 1.2导出模型?
gcloud ml-engine本地预测没有--runtime-version标志,所以如果您安装了TF 1.3并使用它导出了您的模型,那么本地预测将使用TF 1.3,但可能存在不兼容性尝试在服务上使用TF 1.2时的模型。