在张量流中重置tf.nn.dynamic_rnn的initial_state

时间:2019-04-16 21:05:13

标签: python tensorflow lstm

我正在学习tensorflow,并且正在遵循github代码,这给了我一些麻烦。它以某种方式重置LSTMStateTuple,导致无法预测的张量流行为,但不会引发错误。
LSTMStateTuple用于提供initial_state的{​​{1}}参数。初始化时以tf.nn.dynamic_rnn作为占位符。已重置:

  • 在末期训练之前,先验证为here
  • 在历元验证之后但在下一个历元之前以here开始

两种情况下的重置方式相同:

tf.zeros

for i, _ in enumerate(initial_states): initial_states[i] = None initial_states的地方。
这对于训练中的LSTMStateTuple语句似乎很好,但是验证sess.run()会产生错误的损失。我没有收到任何错误消息。我知道测试损失是不正确的,因为我训练了一个测试模型,然后通过sess.run()导出到相同的数据并对其进行了测试。
问题:在这种情况下,将tf.serving中的值设置为None是否不正确?如果是,会产生什么影响?

0 个答案:

没有答案