我想在tensorflow服务上托管多个模型。 Tensorflow服务文档指出:创建一个包含ASCII ModelServerConfig协议缓冲区的文件。 但是我无法建立这个models.config。 请帮助我
答案 0 :(得分:0)
如您所指的documentation中所述,您需要在Google ProtoBuf结构中创建纯文本文件。然后,保存此文件,并将model_config_file
标志传递给模型服务器可执行文件,并带有您刚刚创建的文件的路径。如果您正在运行docker,则GtHub README中有专门用于此的部分。