Tensorflow中的注意事项(tf.contrib.rnn.AttentionCellWrapper)

时间:2017-05-25 01:41:08

标签: tensorflow attention-model

tf.contrib.rnn.AttentionCellWrapper究竟是如何使用的?有人可以提供一段示例代码吗? 具体来说,我只设法做了以下

    fwd_cell = tf.contrib.rnn.AttentionCellWrapper(tf.contrib.rnn.BasicLSTMCell(hidden_size),10,50,state_is_tuple=True)
    bwd_cell = tf.contrib.rnn.AttentionCellWrapper(tf.contrib.rnn.BasicLSTMCell(hidden_size),10,50,state_is_tuple=True)

但在Bahdanau等人。 2015年,注意力集中在整个双向RNN上。我不知道如何在Tensorflow中编写代码。

0 个答案:

没有答案