我正在学习tensorflow,并且正在遵循github代码,这给了我一些麻烦。它以某种方式重置LSTMStateTuple
,导致无法预测的张量流行为,但不会引发错误。
LSTMStateTuple
用于提供initial_state
的{{1}}参数。初始化时以tf.nn.dynamic_rnn
作为占位符。已重置:
两种情况下的重置方式相同:
tf.zeros
for i, _ in enumerate(initial_states):
initial_states[i] = None
是initial_states
的地方。
这对于训练中的LSTMStateTuple
语句似乎很好,但是验证sess.run()
会产生错误的损失。我没有收到任何错误消息。我知道测试损失是不正确的,因为我训练了一个测试模型,然后通过sess.run()
导出到相同的数据并对其进行了测试。
问题:在这种情况下,将tf.serving
中的值设置为None是否不正确?如果是,会产生什么影响?