我需要一次使用Tensorflow Serving运行两个模型。 我试图使用相同的rest_api_port运行此命令,但使用不同的model_name来运行此命令,
nohup tensorflow_model_server \
--rest_api_port=8501 \
--model_name=model \
--model_base_path="${MODEL_DIR}" >server.log 2>&1
%%bash --bg
nohup tensorflow_model_server \
--rest_api_port=8501 \
--model_name=model_2 \
--model_base_path="${MODEL_DIR}" >server.log 2>&1
我已将两个模型保存在一个目录下,作为一个模型的两个版本。我用来保存模型的代码:
import tempfile
import os
MODEL_DIR = tempfile.gettempdir()
version = 1
export_path = os.path.join(MODEL_DIR, str(version))
print('export_path = {}\n'.format(export_path))
tf.keras.models.save_model(
model,
export_path,
overwrite=True,
include_optimizer=True,
save_format=None,
signatures=None,
options=None
)
第一个模型的版本等于1,第二个模型的版本等于2。