我想进行模糊字符串比较,但与要使用的库混淆。
选项1:
import Levenshtein
Levenshtein.ratio('hello world', 'hello')
Result: 0.625
选项2:
import difflib
difflib.SequenceMatcher(None, 'hello world', 'hello').ratio()
Result: 0.625
在这个例子中,两者都给出了相同的答案。但我更喜欢使用difflib
。专家的任何建议。感谢。
Updated:
我正在进行临床信息规范化(拼写检查),其中我针对900,000字医学字典检查每个给定的单词。我更关注时间复杂度/性能。
你认为在这种情况下两者的表现都相似吗。
答案 0 :(得分:124)
如果您对Levenshtein和Difflib相似性的快速视觉比较感兴趣,我计算了约230万本书名:
import codecs, difflib, Levenshtein, distance
with codecs.open("titles.tsv","r","utf-8") as f:
title_list = f.read().split("\n")[:-1]
for row in title_list:
sr = row.lower().split("\t")
diffl = difflib.SequenceMatcher(None, sr[3], sr[4]).ratio()
lev = Levenshtein.ratio(sr[3], sr[4])
sor = 1 - distance.sorensen(sr[3], sr[4])
jac = 1 - distance.jaccard(sr[3], sr[4])
print diffl, lev, sor, jac
然后我用R:
绘制了结果
严格来说,我也比较了Difflib,Levenshtein,Sørensen和Jaccard的相似度值:
library(ggplot2)
require(GGally)
difflib <- read.table("similarity_measures.txt", sep = " ")
colnames(difflib) <- c("difflib", "levenshtein", "sorensen", "jaccard")
ggpairs(difflib)
结果:
Difflib / Levenshtein的相似性非常有趣。
2018编辑:如果您正在努力识别类似的字符串,您还可以查看minhashing - 有一个great overview here。 Minhashing在线性时间内在大型文本集中找到相似之处是惊人的。我的实验室整理了一个应用程序,可以使用minhashing检测并可视化文本重用:https://github.com/YaleDHLab/intertext
答案 1 :(得分:93)
difflib.SequenceMatcher使用Ratcliff/Obershelp算法计算匹配字符的加倍数除以两个字符串中的字符总数。
Levenshtein使用Levenshtein algorithm计算将一个字符串转换为另一个字符串所需的最少编辑次数
<强>复杂性强>
SequenceMatcher是最坏情况下的二次时间,其预期情况行为依赖于序列共有多少元素的复杂方式。 (from here)
Levenshtein是O(m * n),其中n和m是两个输入字符串的长度。
<强>性能强>
根据Levenshtein模块的source code: Levenshtein与difflib(SequenceMatcher)有一些重叠。它只支持字符串,而不支持任意序列类型,但另一方面它更快。