TensorFlow 2中tf.contrib.seq2seq.prepare_attention的等效项是什么

时间:2020-07-12 03:58:25

标签: python tensorflow tensorflow2.0 seq2seq

我最近正在处理一些用tensorflow 1.0.1编写的代码,我想使其在Tenorflow 2上可用。 我对seq2seq不太熟悉。 非常感谢。

(attention_keys,
attention_values,
attention_score_fn,
attention_construct_fn) = tf.contrib.seq2seq.prepare_attention(
    attention_states=attention_states,
    attention_option="bahdanau",
    num_units=self.decoder_hidden_units,
)

1 个答案:

答案 0 :(得分:0)

根据此Github Commenttf.contrib.seq2seq.prepare_attention()重命名为tf.contrib.seq2seq.DynamicAttentionWrapper

根据此Github Tensorflow CommitDynamicAttentionWrapper已重命名为AttentionWrapper

因此,在1.15中,与tf.contrib.seq2seq.prepare_attention()等效的功能为tf.contrib.seq2seq.AttentionWrapper

Tensorflow 2.x 中的tf.contrib.seq2seq.AttentionWrapper等效的功能是tfa.seq2seq.AttentionWrapper

请找到此Tensorflow Documentation,以获取更多信息。