在训练CNN时,输入word2vec如何得到微调

时间:2016-10-18 02:13:00

标签: nlp svm deep-learning

当我读到文章“用于句子分类的卷积神经网络”-Yoon Kim-纽约大学时,我注意到该论文实现了“CNN-非静态”模型 - 一个带有预训练向量的模型来自word2vec ,以及所有单词 - 包括随机初始化的未知单词,,并为每项任务微调预训练的向量。 所以我只是不明白预训练的向量是如何针对每个任务进行微调的。据我所知,输入向量是由word2vec.bin(预训练)从字符串转换而来,就像图像矩阵一样,在训练CNN时不能改变。那么,如果他们可以,怎么样?请帮帮我,非常感谢!

1 个答案:

答案 0 :(得分:0)

嵌入词是神经网络的权重,因此可以在反向传播过程中更新。

E.g。 http://sebastianruder.com/word-embeddings-1/

  

当然,每个前馈神经网络都将词汇表中的单词作为输入并将其作为向量嵌入到较低维空间中,然后通过反向传播进行微调,必然会产生单词嵌入作为权重。第一层,通常称为嵌入层。