我在推理模型中是否在seq2seq中正确应用了嵌入层?

时间:2019-01-25 14:43:06

标签: python keras nlp seq2seq

我是NLP和Keras的新手,仍然在学习。

我尝试遵循以下指南:https://blog.keras.io/a-ten-minute-introduction-to-sequence-to-sequence-learning-in-keras.html,并添加了一个嵌入层。我正在使用fra2eng数据集。

但是,我不确定我的推理模型和输出代码的生成是否正确。基本上,我的解码器输入是一个索引数组(一个数字),该数组馈入我的推理模型。

我不太确定这是否正确。让我知道是否需要更多背景信息或代码。

input_seq是词汇表中单词索引的数组。

array([36., 64., 57.,  1.,  0.,  0.,  0.,  0.,  0.,  0.,  0.,  0.,  0.,
        0.,  0.,  0.], dtype=float32)

0是我的起始令牌索引 所以我的第一个目标seq是np.array([0])->不确定它是否正确

def decode_sequence(input_seq):
    # Encode the input as state vectors.
    states_value = encoder_model.predict(input_seq)
    target_seq = np.array([0])
    stop_condition = False
    decoded_sentence = ''
    while not stop_condition:
        output_tokens, h, c = decoder_model.predict([target_seq] + states_value)
        sampled_token_index = np.argmax(output_tokens[0, -1, :])
        sampled_char = target_idx2char[sampled_token_index]
        decoded_sentence += sampled_char
        if (sampled_char == '\n' or len(decoded_sentence) > 20):
            stop_condition = True
            # Update the target sequence (of length 1).
        target_seq = np.array([sampled_token_index])
            # Update states
        states_value = [h, c]
    return decoded_sentence

这是我的输出,想知道输出是否是由于上述任何错误引起的。

Input sentence: Go.
Decoded sentence: tréjous?!

-
Input sentence: Run!
Decoded sentence: ï

-
Input sentence: Run!
Decoded sentence: ï

-
Input sentence: Wow!
Decoded sentence: u te les fois.

-
Input sentence: Fire!
Decoded sentence: ïï

-
Input sentence: Help!
Decoded sentence: ez joi de l'argent.

0 个答案:

没有答案