我想使用张量流服务来训练模型。我分批训练了模型,这是标准方案。我希望服务并接收个人请求,并将批处理工作留给batching feature of Tensorflow Serving。因此,我想通过忽略我为训练所做的批处理来保存模型。问题在于使批处理大小成为图形一部分的代码的以下部分:
initial_states = [LSTMStateTuple(tf.zeros([batch_size_i, n_hidden], tf.float32),
tf.zeros([batch_size_i, n_hidden], tf.float32)) for _
in range(n_layers)]
当我尝试使用单个实例调用服务器时,我得到一个错误,提示期望训练批次大小。我发现发布了一种解决方法here,但它看起来并不像应该怎么做。在经过模型服务器将进行批处理的方式的训练后,定义和保存模型的正确方法是什么?