用于pandas DataFrame中文本的Jaccard相似度

时间:2017-09-26 13:03:38

标签: python pandas scikit-learn similarity sklearn-pandas

我想测量pandas DataFrame中文本之间的jaccard相似度。 更确切地说,我有一些实体组,并且在一段时间内每个实体都有一些文本。我想分析每个实体的文本相似度(在这里是Jaccard相似度)。

一个简单的例子来说明我的观点:

import pandas as pd

entries = [
    {'Entity_Id':'Firm1', 'date':'2001-02-05', 'text': 'This is a text'},
    {'Entity_Id':'Firm1', 'date':'2001-03-07', 'text': 'This is a text'},
    {'Entity_Id':'Firm1', 'date':'2003-01-04', 'text': 'No similarity'},
    {'Entity_Id':'Firm1', 'date':'2007-10-12', 'text': 'Some similarity'},
    {'Entity_Id':'Firm2', 'date':'2001-10-10', 'text': 'Another firm'},
    {'Entity_Id':'Firm2', 'date':'2005-12-03', 'text': 'Another year'},
    {'Entity_Id':'Firm3', 'date':'2002-05-05', 'text': 'Something different'}
    ]

df = pd.DataFrame(entries)

Entity_Id日期文字

Firm1   2001-02-05   'This is a text' 
Firm1   2001-03-07   'This is a text'
Firm1   2003-01-04   'No similarity'
Firm1   2007-10-12   'Some similarity'
Firm2   2001-10-10   'Another firm'
Firm2   2005-12-03   'Another year'
Firm3   2002-05-05   'Something different'

我想要的输出是这样的:

Entity_Id日期文本Jaccard

Firm1   2001-02-05   'This is a text'       NaN
Firm1   2001-03-07   'This is a text'       1
Firm1   2003-01-04   'No similarity'        0
Firm1   2007-10-12   'Some similarity'      0.33
Firm2   2001-10-10   'Another firm'         NaN 
Firm2   2005-12-03   'Another year'         0.33  
Firm3   2002-05-05   'Something different'  NaN 

也就是说,我喜欢比较一组公司中的所有文本元素,而不管文本之间的时间间隔。我想将它与以前的文本进行比较。因此,每个公司的第一个条目总是空的,因为没有可比较的文本。

我的方法是按实体标识符将文本移动一个时间间隔(下一个可用日期)。然后识别每个实体的第一份报告并标记该报告。 (我在text_shifted中输入了NaN的原始文本,稍后将其删除 - >需要用于整列的标记化)

df = df.sort_values(['Entity_Id', 'date'], ascending=True)
df['text_shifted'] = df.groupby(['Entity_Id'])['text'].shift(1)
df['IsNaN'] = df['text_shifted'].isnull().astype(int)
df['text_shifted'] = df['text_shifted'].fillna(df['text'])

在下面我使用jaccard相似性如下:

def jaccard_similarity(query, document):
    intersection = set(query).intersection(set(document))
    union = set(query).union(set(document))
    return len(intersection)/len(union)

但是我必须首先对输入进行标记。 但如果我做了类似的事情:

import nltk
df['text_tokens'] = df.text.apply(nltk.word_tokenize)
df['shift_tokens'] = df.text_shifted.apply(nltk.word_tokenize)

在非简化文本示例中需要多年时间来标记文本,其中每个文本大约有5000个单词,我有大约10万个文本。

有什么方法可以加快这个过程吗?我可以避免标记化还是更好地使用sklearn来计算相似度?

如果我按照此处的建议使用余弦相似度:Cosine Similarity row-wise我的结果非常快。但我坚持用jaccard做这件事。

1 个答案:

答案 0 :(得分:2)

加速流程的一种方法是使用Pandas on Ray进行并行处理。

您可以尝试使用jaccard_distance的NLTK实现来实现jaccard相似性。我无法在处理时间方面找到任何显着的改进(计算相似度),可能会在更大的数据集上更好地工作。

尝试将NLTK实现与您的自定义jaccard相似度函数进行比较(平均长度为4个字/令牌的200个文本样本)

NTLK jaccard_distance:

CPU times: user 3.3 s, sys: 30.3 ms, total: 3.34 s
Wall time: 3.38 s

自定义jaccard相似性实现:

CPU times: user 3.67 s, sys: 19.2 ms, total: 3.69 s
Wall time: 3.71 s