tf.contrib.rnn.AttentionCellWrapper
究竟是如何使用的?有人可以提供一段示例代码吗?
具体来说,我只设法做了以下
fwd_cell = tf.contrib.rnn.AttentionCellWrapper(tf.contrib.rnn.BasicLSTMCell(hidden_size),10,50,state_is_tuple=True)
bwd_cell = tf.contrib.rnn.AttentionCellWrapper(tf.contrib.rnn.BasicLSTMCell(hidden_size),10,50,state_is_tuple=True)
但在Bahdanau等人。 2015年,注意力集中在整个双向RNN上。我不知道如何在Tensorflow中编写代码。