多层bidirectional_dynamic_rnn:与MultiRNNCell不兼容?

时间:2017-03-08 00:10:56

标签: python machine-learning tensorflow

我想在Tensorflow中创建一个多层双向LSTM。目前我的单层模型如下:

cell_fw = tf.contrib.rnn.LSTMCell(hidden_size)
cell_bw = tf.contrib.rnn.LSTMCell(hidden_size)

(self.out_fw, self.out_bw), _ = tf.nn.bidirectional_dynamic_rnn(cell_fw, cell_bw, input, ...)

为了将其转变为多层次,我怀疑我可以简单地用LSTMCell s包裹几个MultiRNNCell,如下所示:

multi_cell_fw = tf.contrib.rnn.MultiRNNCell([cell_fw] * num_layers, ...)

并将它们输入bidirectional_dynamic_rnn,因为每层中的前向和后向LSTM都需要输出前一层的前向和后向。目前我的解决方案是在循环中创建我的bidirectional_dynamic_rnn,以前面层的LSTM的连接输出形式提供。

然而,它不是很干净,坦率地说我不确定它是否正确,尽管它确实适用于玩具数据集。有没有更好的方式使用像MultiRNNCell

这样的东西比较优雅

我正在使用Tensorflow API r1.0。

1 个答案:

答案 0 :(得分:0)

只是做:

function calculatePoint(key){ console.log(key); //working fine var required_points = levelProgress.key - anualPoints; // levelProgress.key returns undefined. return required_points; }

这应该有效。