我可以在Colab中使用Tensorflow Serving部署多个模型吗?

时间:2020-08-28 14:28:52

标签: python tensorflow deployment google-colaboratory tensorflow-serving

我需要一次使用Tensorflow Serving运行两个模型。 我试图使用相同的rest_api_port运行此命令,但使用不同的model_name来运行此命令,

nohup tensorflow_model_server \
  --rest_api_port=8501 \
  --model_name=model \
  --model_base_path="${MODEL_DIR}" >server.log 2>&1

%%bash --bg 
nohup tensorflow_model_server \
  --rest_api_port=8501 \
  --model_name=model_2 \
  --model_base_path="${MODEL_DIR}" >server.log 2>&1

我已将两个模型保存在一个目录下,作为一个模型的两个版本。我用来保存模型的代码:

import tempfile
import os

MODEL_DIR = tempfile.gettempdir()
version = 1
export_path = os.path.join(MODEL_DIR, str(version))
print('export_path = {}\n'.format(export_path))
tf.keras.models.save_model(
    model,
    export_path,
    overwrite=True,
    include_optimizer=True,
    save_format=None,
    signatures=None,
    options=None
)

第一个模型的版本等于1,第二个模型的版本等于2。

0 个答案:

没有答案