我使用gensim在我自己的语料库中训练了doc2vec和相应的word2vec。我想用t-sne用文字来形象化word2vec。如图所示,图中的每个点都有“单词”。
我在这里看了一个类似的问题:t-sne on word2vec
在它之后,我有这个代码:
导入gensim 将gensim.models导入为g
from sklearn.manifold import TSNE
import re
import matplotlib.pyplot as plt
modelPath="/Users/tarun/Desktop/PE/doc2vec/model3_100_newCorpus60_1min_6window_100trainEpoch.bin"
model = g.Doc2Vec.load(modelPath)
X = model[model.wv.vocab]
print len(X)
print X[0]
tsne = TSNE(n_components=2)
X_tsne = tsne.fit_transform(X[:1000,:])
plt.scatter(X_tsne[:, 0], X_tsne[:, 1])
plt.show()
这给出了一个带点但没有单词的图形。那是我不知道哪个点代表哪个词。如何用点显示单词?
答案 0 :(得分:32)
答案的两个部分:如何获取单词标签,以及如何在散点图上绘制标签。
gensim的word2vec中的文字标签
model.wv.vocab
是{word:数字向量对象}的字典。要将数据加载到X
以获取t-SNE,我做了一处更改。
vocab = list(model.wv.vocab)
X = model[vocab]
这完成了两件事:(1)它为您绘制最终数据框的独立vocab
列表,以及(2)当您索引model
时,您可以确定您知道单词的顺序。
像以前一样继续
tsne = TSNE(n_components=2)
X_tsne = tsne.fit_transform(X)
现在让我们将X_tsne
与vocab
列表放在一起。使用pandas很容易,所以import pandas as pd
如果你还没有。
df = pd.DataFrame(X_tsne, index=vocab, columns=['x', 'y'])
词汇词是现在数据帧的索引。
我没有您的数据集,但在您提到的other SO中,使用sklearn新闻组的示例df
看起来像
x y
politics -1.524653e+20 -1.113538e+20
worry 2.065890e+19 1.403432e+20
mu -1.333273e+21 -5.648459e+20
format -4.780181e+19 2.397271e+19
recommended 8.694375e+20 1.358602e+21
arguing -4.903531e+19 4.734511e+20
or -3.658189e+19 -1.088200e+20
above 1.126082e+19 -4.933230e+19
<强>散点图强>
我喜欢matplotlib的面向对象方法,所以这开始有点不同。
fig = plt.figure()
ax = fig.add_subplot(1, 1, 1)
ax.scatter(df['x'], df['y'])
最后,annotate
方法将标记坐标。前两个参数是文本标签和2元组。使用iterrows()
,这可以非常简洁:
for word, pos in df.iterrows():
ax.annotate(word, pos)
[感谢里卡多对此建议的评论。]
然后执行plt.show()
或fig.savefig()
。根据您的数据,您可能不得不使用ax.set_xlim
和ax.set_ylim
来查看密集的云。这是没有任何调整的新闻组示例:
您也可以修改点大小,颜色等。快乐的微调!
答案 1 :(得分:0)
通过以下操作,您可以将模型转换为TSV,然后使用this page进行可视化。
with open(self.word_tensors_TSV, 'bw') as file_vector, open(self.word_meta_TSV, 'bw') as file_metadata:
for word in model.wv.vocab:
file_metadata.write((word + '\n').encode('utf-8', errors='replace'))
vector_row = '\t'.join(str(x) for x in model[word])
file_vector.write((vector_row + '\n').encode('utf-8', errors='replace'))
:)