如何使用输入队列管道推断Tensorflow模型?

时间:2017-03-14 09:16:44

标签: python input tensorflow inference serving

我正在努力使用Tensorflow模型。我使用 tf.PaddingFIFOQueue 训练了它,然后我主要使用本教程:https://blog.metaflow.fr/tensorflow-how-to-freeze-a-model-and-serve-it-with-a-python-api-d4f3596b3adc#.dykqbzqek,用它的变量冻结图形,然后将其加载到库中以推理模型。

我的问题是,我真的不知道如何在加载后运行模型进行预测。在仅将占位符作为输入的情况下,只需要获取输入和输出变量,然后运行模型:

# We load the graph
graph_path = ...
graph = load_graph(graph_path)

# We launch a Session
with tf.Session(graph=graph) as sess:
  # Note: we didn't initialize/restore anything, everything is stored in the graph_def
  y_out = sess.run(y, feed_dict={
    x: [[3, 5, 7, 4, 5, 1, 1, 1, 1, 1]] # < 45
  })
  print(y_out) # [[ False ]] Yay, it works!

在这个例子中,它看起来很简单但是对于输入管道的用例,我并没有真正弄清楚如何使它工作。我甚至找不到任何相关的东西。我有人可以给我一个暗示如何做到这一点,或者人们通常如何在生产中使用Tensorflow会非常有帮助。

0 个答案:

没有答案