我成功将自定义对象检测模型导出到已保存的模型(save_model_cli命令输出Signature def)。另外,当我在jupyter笔记本上测试模型时,推论有效。但是,我正在尝试将此模型用于预测,但是当我使用以下方法在本地对其进行测试时:
gcloud ml-engine local predict --model-dir=$LOCATION_TO_SAVED_MODEL --json-instances=$JSONFILE_CONTAINING_INPUTS
该命令不输出任何内容,也没有错误进行调试。不知道我在做什么错。
答案 0 :(得分:0)
存在一个tensorflow版本问题(使用tf 1.11代替tf 1.9)。很奇怪,在将模型部署到云上后我能够弄清楚。同样,理想情况下,推断应该适用于> = tf 1.9的任何版本。不知道为什么它不能与Google的ML引擎一起使用。
答案 1 :(得分:0)
原因是因为运行时版本应该兼容以支持您使用的张量流版本
运行时版本1.13支持针对CPU和GPU的TensorFlow 1.13.1。在此运行时版本中,支持GPU进行训练,但不支持批量预测或在线预测。
请参阅下面的链接以了解有关运行时版本的详细信息
访问https://cloud.google.com/ml-engine/docs/tensorflow/runtime-version-list
答案 2 :(得分:0)
在部署模型时,您是否指定了--runtime-version?如果未指定它们,则AI Platform使用默认版本1.0
https://cloud.google.com/ml-engine/docs/tensorflow/runtime-version-list