我正在玩tf和文本生成任务。我能够成功地掌握古典尼采的例子。现在,我正在尝试使用Tokenizer。一切看起来不错,我能够开始进行拟合过程,甚至收敛了,但是最终得到了以下结果:
Epoch 1/60
200256/200281 [============================>.] - ETA: 0s - loss: 2.1613 - acc: 0.3707
Input: a
Output:
yyyyyyyyyyyyyyyyyyyyyyyyyyyyyy
请看我的笔记本。我已经为这个问题奋斗了几天。预先感谢
https://colab.research.google.com/drive/1uUZ-hZAnJBU8o841K6T51gnKfEbCB3JX
答案 0 :(得分:0)
好的,我发现了问题。似乎是在predict
函数中。
seq = token.texts_to_sequences(text)
需要更改为
seq = token.texts_to_sequences([text])
由于text_to_sequence期望将数组作为参数