我有一个巨大的文本文件(1 GB),其中每个“行”由##分隔 例如:
## sentence 1 ## sentence 2
## sentence 3
我正在尝试根据##分离打印文件。
我尝试了下面的代码,但是read()函数粉碎了(因为文件的大小)。
import re
dataFile = open('post.txt', 'r')
p = re.compile('##(.+)')
iterator = p.finditer(dataFile.read())
for match in iterator:
print (match.group())
dataFile.close()
有什么想法吗?
答案 0 :(得分:4)
这将以块(chunksize
字节)读取文件,从而避免与一次读取过多文件相关的内存问题:
import re
def open_delimited(filename, delimiter, *args, **kwargs):
"""
http://stackoverflow.com/a/17508761/190597
"""
with open(filename, *args, **kwargs) as infile:
chunksize = 10000
remainder = ''
for chunk in iter(lambda: infile.read(chunksize), ''):
pieces = re.split(delimiter, remainder + chunk)
for piece in pieces[:-1]:
yield piece
remainder = pieces[-1]
if remainder:
yield remainder
filename = 'post.txt'
for chunk in open_delimited(filename, '##', 'r'):
print(chunk)
print('-'*80)
答案 1 :(得分:1)
您可以使用islice
。
from itertools import islice
file = open('file.txt', 'r')
while True:
slice = islice(file, buffer)
to_process = []
for line in slice:
to_process.append(line)
if not to_process:
break
#process to_process list
file.close()
buffer
是您希望一次读取的行数(您必须定义int)。