部署外部训练的张量流模型工件

时间:2019-10-15 18:41:28

标签: amazon-sagemaker

我想在Sagemaker上托管一个tensorflow模型(在我的本地PC上训练),我关注了这篇文章:https://aws.amazon.com/fr/blogs/machine-learning/bring-your-own-pre-trained-mxnet-or-tensorflow-models-into-amazon-sagemaker/

但是我无法执行推断。我的模型是一个对象检测模型,它在本地生成了Frozen_inference_graph.pb,model.ckpt.data-00000-of-00001,model.ckpt.index和model.ckpt.meta,所有这些文件都已转换为save_model.pb和variables.data-00000-of-00001,variable.index,然后通过尊重文件夹结构export / Servo / version / ...进入.tar.gz。

.tar.gz已手动上传到s3,并且我已经成功创建了一个端点。

但是当我尝试执行推理时,出现错误: ModelError:调用InvokeEndpoint操作时发生错误(ModelError):从消息为“ {“ error”:“ Unsupported Media Type:Unknown”}“的模型接收到客户端错误(415)

我的输入数据是图像。我需要帮助。

0 个答案:

没有答案