标签: keras attention-model
我正在尝试在keras的seq2seq中实现关注层。我正在使用以下代码进行实现:https://github.com/datalogue/keras-attention/blob/master/models/custom_recurrents.py,但似乎假定编码器和解码器都具有相同的时间步长,但是在我的实现中,我要求它们不同。谁能指导我如何做到这一点。
谢谢