word2vec:skip-gram模型的参数化

时间:2016-02-17 08:08:39

标签: python nlp word2vec

我正在阅读本文word2vec Explained,并且遇到了等式(3)。我完全不明白什么是Vc和Vw。它说它们是单词的矢量表示。但它仍然是什么?如何获得它的价值?我即将实现它,并想知道它究竟意味着什么。

修改:Vc和Vw是word2vec Parameter Learning Explained

中提到的单词热词向量

1 个答案:

答案 0 :(得分:0)

Vc和Vw分别是上下文和主题词的学习嵌入(向量)。这些值最初是随机的 - 但是学习算法是迭代的并且将修改这些值,最终收敛于良好的表示以满足(3)中所述的公式。

在回答您的编辑时,这些不是一个热门的矢量,而是大小为d(尺寸)。