我想在Sagemaker上托管一个tensorflow模型(在我的本地PC上训练),我关注了这篇文章:https://aws.amazon.com/fr/blogs/machine-learning/bring-your-own-pre-trained-mxnet-or-tensorflow-models-into-amazon-sagemaker/
但是我无法执行推断。我的模型是一个对象检测模型,它在本地生成了Frozen_inference_graph.pb,model.ckpt.data-00000-of-00001,model.ckpt.index和model.ckpt.meta,所有这些文件都已转换为save_model.pb和variables.data-00000-of-00001,variable.index,然后通过尊重文件夹结构export / Servo / version / ...进入.tar.gz。
.tar.gz已手动上传到s3,并且我已经成功创建了一个端点。
但是当我尝试执行推理时,出现错误: ModelError:调用InvokeEndpoint操作时发生错误(ModelError):从消息为“ {“ error”:“ Unsupported Media Type:Unknown”}“的模型接收到客户端错误(415)
我的输入数据是图像。我需要帮助。