Tensor-flow V 1.13.1中是否可以使用任何功能代替“ prepare_attention”

时间:2019-04-06 16:43:52

标签: python tensorflow chatbot

在尝试使用 Python 3.7 Tensor-Flow v 1.13.1 构建聊天机器人时,遇到此错误“ AttributeError: module 'tensorflow.contrib.seq2seq' has no attribute 'prepare_attention'”。我搜索了一下,才知道此功能仅在 TF 1.0.0 中使用,而我没有找到任何替代方法。我只是想确认没有其他功能可以代替此功能使用?

def decode_training_set(encoder_state, decoder_cell, 
decoder_embedded_input, sequence_length, decoding_scope, output_function, 
keep_prob, batch_size):

   attention_states = tf.zeros([batch_size, 1, decoder_cell.output_size])

   attention_keys, attention_values, attention_score_function, 
   attention_construct_function = 
   tf.contrib.seq2seq.prepare_attention(attention_states, attention_option 
   = "bahdanau", num_units = decoder_cell.output_size)

0 个答案:

没有答案