在解码期间使用TensorFlow的seq2seq示例代码提取注意矩阵

时间:2016-12-19 00:19:18

标签: python tensorflow sequence-to-sequence attention-model

似乎用于计算序列到序列代码的示例TensorFlow代码中的seq2seq_model.py代码中的注意掩码的attention()方法在解码期间不被调用。

有谁知道如何解决这个问题?这里提出了一个类似的问题:Visualizing attention activation in Tensorflow,但我不清楚如何在解码过程中获得矩阵。

谢谢!

1 个答案:

答案 0 :(得分:0)

为什么需要面膜?如果它只是用于可视化,你可能需要传递张量并在会话运行中获取它,我猜。