标签: machine-learning nlp word2vec embedding
在Skip-gram中,它有成对的单词和上下文单词。然后,它输出每对是正确还是错误的对。 与CBOW相比,Skip-gram使用两个嵌入层。训练之后,应该使用哪个嵌入层?
在Keras的以下示例中,它首先使用嵌入层(聚焦字嵌入而非上下文一)嵌入层。
https://github.com/nzw0301/keras-examples/blob/master/Skip-gram-with-NS.ipynb