Tensorflow:关注解码器

时间:2017-02-20 11:25:54

标签: tensorflow neural-network deep-learning

在Tensorflow 1.0中,seq2seq API发生了很大变化,并且不再与以前的seq2seq示例兼容。特别是,我发现注意解码器构建起来更具挑战性:旧的attention_decoder函数已被删除,而新API期望用户在训练期间提供dynamic_rnn_decoder几个不同的注意功能和预测,而后者依赖于prepare_attention函数。

有没有人举例说明如何构建注意力解码器,只提供输入和最终编码器状态?

1 个答案:

答案 0 :(得分:0)

这个具有注意力模型的seq2seq可以将数字发音翻译成数字,例如“一百二十七” - > “127”。看看它是否有帮助。

https://acv.aixon.co/attention_word_to_number.html