在Tensorflow 1.0中,seq2seq API发生了很大变化,并且不再与以前的seq2seq示例兼容。特别是,我发现注意解码器构建起来更具挑战性:旧的attention_decoder
函数已被删除,而新API期望用户在训练期间提供dynamic_rnn_decoder
几个不同的注意功能和预测,而后者依赖于prepare_attention
函数。
有没有人举例说明如何构建注意力解码器,只提供输入和最终编码器状态?
答案 0 :(得分:0)
这个具有注意力模型的seq2seq可以将数字发音翻译成数字,例如“一百二十七” - > “127”。看看它是否有帮助。