我有一个带有LSTM的RNN,它使用两个占位符来训练目标向量的输入向量。培训有效,但在恢复我提供的目标占位符时会是什么?
从概念上讲,我不明白为什么需要这样做,因为在生产环境中我只有输入向量,并希望训练有素的模型提供输出。
答案 0 :(得分:0)
通常,当你进行有监督的学习时,你有一个输入x和基础事实y。您的模型及其参数化提供了预测y_hat。通过使用最小化损失的优化器 - 衡量预测与实际情况的接近程度 - 您可以使模型适应数据并改善结果。
完成训练后,您不再需要y的占位符,因为您将一些x输入到模型中并获得其预测y_hat。因此,你做对象
是正确的# load model
x = graph.get_tensor_by_name('x:0')
y_hat = graph.get_tensor_by_name('whateverOutput:0')
sess.run(y_hat, feed_dict={x:myProductionData})
所以你的结果现在存储在y_hat。