我有一个完全工作的seq2seq注意模型与光束搜索,它确实提供了改进的结果。但它需要> 1min用于推理(批量大小1024),k = 5(k是我的假设),因为它们都没有并行化。一切都是一次发生一次。
任务(简化)
目标是句子翻译,15个字朗A到15个字郎B.
for each element in the test-set
calculate initial k (decoder-encoder step)
for range(timesteps-1)
for each prev k
get hidden state
obtain its best k
save hidden state
find new k from k*k possible ones
##update hypotheses based on new found k
for element in k
copy hidden state
change hypotheses if necessary
append new k to hypotheses
有6个张量和2个列表可以跟踪和处理状态变化。这里有加速或并行化的空间吗?也许每个k可以同时通过enncode-decode?任何帮助深表感谢。