标签: tensorflow scaling operations serving
寻求建议如何处理我们必须为每个用户培训相同的简单模型(而不是NN)以及必须保持私有的内容的情况 - 这意味着我理论上会有150k不同的模型可以并行部署/运行(可能是一场噩梦)。
TensorFlow是否可以完全单独训练/冻结这些单独的模型,然后加载+组合成一个更大的模型,以便在部署时保存(因为不需要培训),将userId作为附加输入。< / p>
如果没有,是否有解决此问题的典型方法?