从介绍到深度学习的练习this assignment。它使用词袋来表示推文。
如何use word embeddings
实现相同的目标?
我玩word2vec
工具,我遇到了以下问题:<登记/>
(i)如何obtain pre-trained embeddings
代表这些推文? (直接使用word2vec而不是训练这些推文来嵌入矢量。)如何使用word2vec来使用这种预训练的模型?
(ii)一旦我们从word2vec获得嵌入(如果维度将因2 hidden layer
而改变)或(之前的弓模型的继续将由嵌入引起的其他更改),如何训练张量流embedding_size
架构<登记/>
以前是:
input dimension : (None, vocab_size)
Layer-1: (input_data * weights_1) + biases_1
Layer-2: (layer_1 * weights_2) + biases_2
output layer: (layer_2 * n_classes) + n_classes
output dimension: (None, n_classes)
(iii)是否有必要通过从头开始训练word2vec来获取推文的特定数据的嵌入?如何使用word2vec(不是gensim或GloVe)训练大约14k条推文的数据? word2vec会预处理@
作为停止词吗?