Python Gensim:如何使用LDA模型计算文档相似度?

时间:2014-03-16 06:51:25

标签: python nlp lda gensim

我有一个训练有素的LDA模型,我想从我训练模型的语料库中计算两个文档之间的相似性得分。 在研究了所有Gensim教程和功能之后,我仍然无法理解它。有人可以给我一个暗示吗?谢谢!

3 个答案:

答案 0 :(得分:31)

取决于您要使用的相似性指标。

Cosine similarity是普遍有用的& built-in

sim = gensim.matutils.cossim(vec_lda1, vec_lda2)

Hellinger distance对于概率分布(例如LDA主题)之间的相似性非常有用:

import numpy as np
dense1 = gensim.matutils.sparse2full(lda_vec1, lda.num_topics)
dense2 = gensim.matutils.sparse2full(lda_vec2, lda.num_topics)
sim = np.sqrt(0.5 * ((np.sqrt(dense1) - np.sqrt(dense2))**2).sum())

答案 1 :(得分:23)

不知道这是否有帮助,但在使用实际文档作为查询时,我设法获得了文档匹配和相似性的成功结果。

dictionary = corpora.Dictionary.load('dictionary.dict')
corpus = corpora.MmCorpus("corpus.mm")
lda = models.LdaModel.load("model.lda") #result from running online lda (training)

index = similarities.MatrixSimilarity(lda[corpus])
index.save("simIndex.index")

docname = "docs/the_doc.txt"
doc = open(docname, 'r').read()
vec_bow = dictionary.doc2bow(doc.lower().split())
vec_lda = lda[vec_bow]

sims = index[vec_lda]
sims = sorted(enumerate(sims), key=lambda item: -item[1])
print sims

您在语料库中使用的所有文档与用作查询的文档之间的相似度得分将是每个sim卡的第二个索引。

答案 2 :(得分:3)

提供的答案很好,但是对初学者来说不是很友好。我想从训练LDA模型开始并计算余弦相似度。

训练模型部分:

docs = ["latent Dirichlet allocation (LDA) is a generative statistical model", 
        "each document is a mixture of a small number of topics",
        "each document may be viewed as a mixture of various topics"]

# Convert document to tokens
docs = [doc.split() for doc in docs]

# A mapping from token to id in each document
from gensim.corpora import Dictionary
dictionary = Dictionary(docs)

# Representing the corpus as a bag of words
corpus = [dictionary.doc2bow(doc) for doc in docs]

# Training the model
model = LdaModel(corpus=corpus, id2word=dictionary, num_topics=10)

为提取分配给文档的每个主题的概率,通常有两种方法。我在此同时提供:

# Some preprocessing for documents like the training the model
test_doc = ["LDA is an example of a topic model",
            "topic modelling refers to the task of identifying topics"]
test_doc = [doc.split() for doc in test_doc]
test_corpus = [dictionary.doc2bow(doc) for doc in test_doc]

# Method 1
from gensim.matutils import cossim
doc1 = model.get_document_topics(test_corpus[0], minimum_probability=0)
doc2 = model.get_document_topics(test_corpus[1], minimum_probability=0)
print(cossim(doc1, doc2))

# Method 2
doc1 = model[test_corpus[0]]
doc2 = model[test_corpus[1]]
print(cossim(doc1, doc2))

输出:

#Method 1
0.8279631530869963

#Method 2
0.828066885140262

如您所见,这两种方法通常是相同的,不同之处在于第二种方法返回的概率有时不等于here中的一种。 对于大型语料库,可以通过传递整个语料库来给出可能性向量:

#Method 1
possibility_vector = model.get_document_topics(test_corpus, minimum_probability=0)
#Method 2
possiblity_vector = model[test_corpus]

注意::分配给文档中每个主题的概率之和可能会变得略高于1,或者在某些情况下会略小于1。这是因为浮点算术舍入错误。