如何设置本地模型存储库-使用Minio的Tensorrt推理服务器

时间:2019-05-23 14:00:19

标签: tensorflow minio tensorrt kubeflow

嗨,我想设置Kubeflow-带有位于MinIO中的存储库的NVIDIA TensorRT推理服务器。

我不更改 gs:// inference-server-model-store / tf_model_store 以连接Minio。

CheckoutUpdater

1 个答案:

答案 0 :(得分:0)

关于Kubeflow的NVIDIA TensorRT推理文档似乎尚未更新。

    收购Heptio之后,
  • Ksonnet正在deprecated。因此,Kubeflow是 移至Kustomize

  • 如果考虑使用Kustomize,则可以按照here中所述,使用Kubeflow配置S3 API。您应该可以将s3://bucket/object用于模型。