我正在尝试使用skip-gram为word2vec实现前向和后向传播。我是神经网络的新手,但从我的理解,这就是它的方式:
如果上面出现任何问题,请纠正我。
所以现在我的问题是:
正确的skip-gram和阴性样本的目标应该是什么?它们分别是1和0吗?或者它应该是skip-gram的上下文?我真的不确定。
如何计算损失?
谢谢。
答案 0 :(得分:0)
我不知道你的问题的答案是否是答案,但是我完全没问题(我确定!)。我不认为在第二步中我们使用sigmoid或softmax函数,因为第一个点项目仅用于从矩阵W(第一矩阵)中提取目标字的向量。 请看这些:
http://mccormickml.com/2016/04/19/word2vec-tutorial-the-skip-gram-model/
本书这一章的第16.2节对我来说非常有帮助 https://web.stanford.edu/~jurafsky/slp3/16.pdf