我们可以用word2vec提供seq2seq吗?

时间:2017-12-05 23:39:53

标签: python nlp deep-learning keras lstm

我已准备好训练seq2seq的数据集。(一个文件包含问题,另一个文件包含答案)。 假设我有1000个问题(每个问题由15个单词组成)。应用word2vec(字长30)后,问题的形状将为(1000,15,30)。 我在申请

后试图训练网络
 question_list.reshape((1000,15,30,1))

并应用

model.fit(questions, answers, nb_epoch=5, batch_size=32)

然后我收到了错误

ValueError: Error when checking input: expected input_4 to have 3 dimensions, but got array with shape (1000, 15, 30, 1)

这意味着,每个单词应该表示为学者(而不是30维向量)?如果是这样,使用word2vec应用单词嵌入是没有意义的.....

0 个答案:

没有答案