从推文的单词包转换时理解单词嵌入

时间:2017-05-05 23:39:22

标签: tensorflow sentiment-analysis

从介绍到深度学习的练习this assignment。它使用词袋来表示推文。
如何use word embeddings实现相同的目标?
我玩word2vec工具,我遇到了以下问题:<登记/>
 (i)如何obtain pre-trained embeddings代表这些推文? (直接使用word2vec而不是训练这些推文来嵌入矢量。)如何使用word2vec来使用这种预训练的模型?

 (ii)一旦我们从word2vec获得嵌入(如果维度将因2 hidden layer而改变)或(之前的弓模型的继续将由嵌入引起的其他更改),如何训练张量流embedding_size架构<登记/> 以前是:

input dimension : (None, vocab_size)
Layer-1: (input_data * weights_1) + biases_1 
Layer-2: (layer_1 * weights_2) + biases_2 
output layer: (layer_2 * n_classes) + n_classes
output dimension: (None, n_classes)

(iii)是否有必要通过从头开始训练word2vec来获取推文的特定数据的嵌入?如何使用word2vec(不是gensim或GloVe)训练大约14k条推文的数据? word2vec会预处理@作为停止词吗?

0 个答案:

没有答案