标签: tensorflow tensorflow-lite tensor2tensor
我们目前正在尝试将变换器模型转换为tensorflow-lite图,但似乎问题出在自注意机制上。
我们无法处理图形。通过查看tf-lite代码,我们将其范围缩小到tf.matmul lite-version。
tf.matmul
docs状态:
tf.matmul-只要第二个参数为常数且不使用转置
但是,这是自我注意的情况:
(来源:Attention is all you need)
是否存在针对这种情况的已知解决方法?