标签: deep-learning nlp attention-model
据我了解,每个编码器块都采用前一个编码器的输出,并且输出是序列(又名句子)的有人照看的表示形式(Z)。我的问题是,最后一个编码器块如何从Z产生K,V(用于解码器的编码器解码注意层)
我们只是从最后一个编码器层获取Wk和Wv吗?
http://jalammar.github.io/illustrated-transformer/
答案 0 :(得分:0)
我认为对于解码器的所有第一个(非屏蔽)多头注意力层,$K = V = Z$。但是在计算该子层的注意力之前,$K$ 和 $V$ 被投影到不同的空间,并具有单独的训练参数矩阵 $W_i^K$ 和 $W_i^V$。