Keras ConvS2S为什么在预测中使用len(input_texts)?

时间:2019-07-19 18:54:39

标签: tensorflow keras seq2seq

我正在运行ConvS2S示例,模型训练得很好,但是推理代码还不够清楚,为什么预测数组的长度为inputs_texts?我的预测输出乱码,显然我做错了,因为我的模型似乎学得很好。

谢谢。

据我所知,预测数组应该类似于:

原始来源是这样:

nb_examples = 100
in_encoder = encoder_input_data[:nb_examples]
in_decoder = np.zeros((len(input_texts), max_decoder_seq_length, num_decoder_tokens), dtype='float32')

in_decoder[:, 0, target_token_index["\t"]] = 1

predict = np.zeros((len(input_texts), max_decoder_seq_length), dtype='float32')

但是为什么要使用len(input_texts)

0 个答案:

没有答案