这是以前的question在哪里提高python中函数的时间性能我需要找到一种有效的方法来分割我的文本文件
我有以下文本文件(超过32 GB)未排序
....................
0 274 593869.99 6734999.96 121.83 1,
0 273 593869.51 6734999.92 121.57 1,
0 273 593869.15 6734999.89 121.57 1,
0 273 593868.79 6734999.86 121.65 1,
0 272 593868.44 6734999.84 121.65 1,
0 273 593869.00 6734999.94 124.21 1,
0 273 593868.68 6734999.92 124.32 1,
0 274 593868.39 6734999.90 124.44 1,
0 275 593866.94 6734999.71 121.37 1,
0 273 593868.73 6734999.99 127.28 1,
.............................
第一列和第二列是网格中x,y,z点位置的ID(例如:0-273)。
def point_grid_id(x,y,minx,maxy,distx,disty):
"""give id (row,col)"""
col = int((x - minx)/distx)
row = int((maxy - y)/disty)
return (row, col)
(minx, maxx)
是我的网格的原点,其大小为distx,disty
。 Id图块的数量是
tiles_id = [j for j in np.ndindex(ny, nx)] #ny = number of row, nx= number of columns
from [(0,0),(0,1),(0,2),...,(ny-1,nx-1)]
n = len(tiles_id)
我需要在n (= len(tiles_id))
个文件中切片~32 GB文件。
我可以不进行排序而是读取n次文件。出于这个原因,我希望为文件起始形式(0,0) (= tiles_id[0])
找到一种有效的分割方法。之后,我只能读一次分割文件。
答案 0 :(得分:5)
对于32GB文件几乎不可能进行排序,无论您使用的是Python还是命令行工具(sort
)。数据库似乎太强大,但可能会被使用。但是,如果您不愿意使用数据库,我建议您只使用tile id将源文件拆分为文件。
您读取了一行,从tile ID中创建了一个文件名,并将该行附加到该文件中。并继续,直到源文件完成。它不会太快,但至少它具有O(N)的复杂性,不像排序。
当然,可以对文件进行单独排序并将其连接起来。排序32GB文件的主要瓶颈应该是内存,而不是CPU。
在这里,我想:
def temp_file_name(l):
id0, id1 = l.split()[:2]
return "tile_%s_%s.tmp" % (id0, id1)
def split_file(name):
ofiles = {}
try:
with open(name) as f:
for l in f:
if l:
fn = temp_file_name(l)
if fn not in ofiles:
ofiles[fn] = open(fn, 'w')
ofiles[fn].write(l)
finally:
for of in ofiles.itervalues():
of.close()
split_file('srcdata1.txt')
但如果有很多瓷砖,你可以打开多个文件,你可以这样做:
def split_file(name):
with open(name) as f:
for l in f:
if l:
fn = temp_file_name(l)
with open(fn, 'a') as of:
of.write(l)
最完美主义的方法是在达到打开文件编号的限制后关闭一些文件并将其从字典中删除。
答案 1 :(得分:1)
快速google将我引导至ActiveState代码中的this recipe。它没有给出任何性能比较,但它似乎做了JOB。
简而言之,它似乎做了@Ellioh所建议的,你有一个现成的食谱,你可能不需要重新发明轮子。