如何为多个模型使用tensorflow服务

时间:2017-08-18 05:20:46

标签: tensorflow-serving multiple-models

如何使用多个tensorflow模型? 我使用的是docker container。

model_config_list: {

  config: {
    name: "model1",
    base_path: "/tmp/model",
    model_platform: "tensorflow"
  },
  config: {
     name: "model2",
     base_path: "/tmp/model2",
     model_platform: "tensorflow"
  }
}

1 个答案:

答案 0 :(得分:18)

从官方tensorflow serving docker file

构建了一个泊坞窗图片

然后在docker image里面。

/usr/local/bin/tensorflow_model_server --port=9000 --model_config_file=/serving/models.conf

此处/serving/models.conf与您的文件类似。