在python中高效合并清除大文件

时间:2013-05-11 13:20:33

标签: python mailmerge record-linkage

我有两个要合并的文件(左连接),用于识别左侧文件中的哪些记录与右侧文件中的匹配行一起返回。

匹配键基于定义邮政数据的列的选择。我正在研究如何定义匹配阈值并为唯一地址分配唯一键以进行重复管理。这也称为住宅,这意味着新的匹配不会减少处理。

真正的挑战是为非常大的文件有效地运行主匹配循环。

这个设置可能是map / reduce的一个很好的候选者,但我现在想探索自包含(如'不太天真')解决方案。

我已经检查了Most efficient way in Python to iterate over a large file (10GB+),但由于重复访问了正确的表格,因此可能会有针对此练习的最佳结构。

有什么想法吗?感谢。

import csv
import StringIO
from fuzzywuzzy import fuzz

cols1 = [ 1 , 3 , 4]
f1 = '''x1,x2,x3,x4,x5
     the,quick,brown,fox,jumps
     over,the,lazy,dogs,back,
     bla,bla,bla,bla,bla'''

 cols2 = [ 2 , 3 , 4]
 f2 = '''x1,x2,x3,x4,x5
      the,fast,brown,fox,jumps
      over,many,snoozing,dogs,back,
      the,prompt,fuchsia,fox,jumps
      over,the,lazy,dogs,back,
      bl,the,bl,bl,fox'''


 def standardize( x , selection , field_lengths=None ):
     y = ','.join([ x[selection[i]] for i in range(len(selection)) ])
     return y

 f1 = StringIO.StringIO(f1)
 f2 = StringIO.StringIO(f2)

 reader1 = csv.reader( f1 )
 reader2 = csv.reader( f2 )

 keys2 = []
 for row in reader2:
     # standardize and load key
     keys2.append( standardize( row , cols2 ) )

 for row in reader1:
     # standardize and compare
     key1 = standardize( row , cols1 )
     # ------------------------------------------------
     matches = [ fuzz.ratio( key1 , k) for k in keys2 ]
     # ------------------------------------------------
     max_match = max( matches )
     max_pos = [i for i, x in enumerate(matches) if x == max_match ][0]
     print key1 , "-->" , keys2[max_pos] , ':' , max_match

0 个答案:

没有答案