我正在尝试使用TensorFlow r1.4
中的注意力创建与下图相同的热图。
我正在使用tf.contrib.seq2seq.BahdanauAttention和tf.contrib.seq2seq.AttentionWrapper来实施注意机制。我在这里看到了一种解决方法(Visualizing attention activation in Tensorflow),但我认为它不适用于我当前的设置,因为该解决方法使用旧版TensorFlow
。
修改
我可能会通过使用tfdbg调试模型来找到解决方案,但我不知道应该寻找什么样的张量。
非常感谢任何帮助。