标签: python tensorflow sequence-to-sequence attention-model
似乎用于计算序列到序列代码的示例TensorFlow代码中的seq2seq_model.py代码中的注意掩码的attention()方法在解码期间不被调用。
有谁知道如何解决这个问题?这里提出了一个类似的问题:Visualizing attention activation in Tensorflow,但我不清楚如何在解码过程中获得矩阵。
谢谢!
答案 0 :(得分:0)
为什么需要面膜?如果它只是用于可视化,你可能需要传递张量并在会话运行中获取它,我猜。