在Tensorflow中理解LSTM实现的输出中的随机性问题

时间:2019-07-26 15:52:56

标签: python tensorflow lstm

我对LSTM细胞及其应用非常热衷,我正在研究其在数据集中的用途。 下面的代码代表了我的LSTM单元格声明。

layer ={ 'weights': weights,'bias': bias}
x = tf.split(xplaceholder, n_features, 1)   
lstm_cell = rnn.LSTMCell(n_units,reuse = tf.AUTO_REUSE,activation = 'tanh',forget_bias = 0)
outputs, states = rnn.static_rnn(lstm_cell, x,dtype=tf.float32)
output = tf.matmul(outputs[-1], layer['weights']) + layer['bias']

每次我从单元中获取输出时,它都会给我不同的答案,我一直在努力使用TensorFlow实现并对每个可能的输入进行硬编码,但是问题仍然存在。 请提出建议。

with tf.Session() as sess:
  tf.global_variables_initializer().run()
  ##tf.local_variables_initializer().run()
  print(logit.eval(feed_dict={xplaceholder: X_train, yplaceholder: y_train}))
  print(states.eval(feed_dict={xplaceholder: X_train, yplaceholder: y_train}))

我希望每次都能得到相同的结果。

0 个答案:

没有答案