tf:将批次训练的模型保存到可服务的模型中,而无需输入批次?

时间:2019-02-18 17:42:08

标签: python tensorflow tensorflow-serving

我想使用张量流服务来训练模型。我分批训练了模型,这是标准方案。我希望服务并接收个人请求,并将批处理工作留给batching feature of Tensorflow Serving。因此,我想通过忽略我为训练所做的批处理来保存模型。问题在于使批处理大小成为图形一部分的代码的以下部分:

initial_states = [LSTMStateTuple(tf.zeros([batch_size_i, n_hidden], tf.float32),
                                 tf.zeros([batch_size_i, n_hidden], tf.float32)) for _
                                 in range(n_layers)]

当我尝试使用单个实例调用服务器时,我得到一个错误,提示期望训练批次大小。我发现发布了一种解决方法here,但它看起来并不像应该怎么做。在经过模型服务器将进行批处理的方式的训练后,定义和保存模型的正确方法是什么?

0 个答案:

没有答案