标签: neural-network recurrent-neural-network seq2seq attention-model
在NMT模型(例如seq2seq或注意力模型)中,如何翻译长于标记比编码器长的句子? 我应该重新制作神经网络(输入长度更大)还是对编码器有误解?