我正在尝试部署本地训练的模型。我按照所有说明here进行模型准备,然后设法部署它。
然而,当我尝试获得预测时,在线预测会回复502 Server错误,批量预测返回('Failed to run the inference graph', 1)
有没有办法获得更好的错误信息来缩小错误?
由于
答案 0 :(得分:1)
错误消息表明在运行推理图的会话时发生了该错误消息。有可能发现一些代码在本地使用模型时会发生什么。测试它的一种方法是创建一个小的输入数据集并将其提供给推理图,以检查是否可以在本地运行会话。
您可以在SDK中的 samples / mnist / deployable / 中引用 local_predict.py ,了解如何执行此操作。以下是一个使用示例:
python local_predict.py --input=/path/to/my/local/files --model_dir=/path/to/modeldir.
请注意,model_dir指向tensorflow元图原型和检查点文件的保存位置。它们是通过培训产生的。这是关于如何训练模型的文档链接。 https://cloud.google.com/ml/docs/how-tos/training-models。模型目录也可以在GCS上。
感谢你提出这个问题。我们一直致力于改善服务的整体体验,包括错误报告。