我有一个30MB .txt文件, 一个 数据行(3000万位数字)
不幸的是,我尝试过的每一种方法(mmap.read()
,readline()
,分配1GB的RAM,用于循环)需要45分钟才能完全读取文件。
我在互联网上找到的每一种方法似乎都是因为每条线都很小,因此内存消耗量只有文件中的最大线。这是我一直在使用的代码。
start = time.clock()
z = open('Number.txt','r+')
m = mmap.mmap(z.fileno(), 0)
global a
a = int(m.read())
z.close()
end = time.clock()
secs = (end - start)
print("Number read in","%s" % (secs),"seconds.", file=f)
print("Number read in","%s" % (secs),"seconds.")
f.flush()
del end,start,secs,z,m
除了将数字从一行分成不同的行之外;我宁愿不这样做,有一种更清洁的方法,不需要一小时的大部分时间吗?
顺便说一句,我不一定要使用文本文件。
我有:Windows 8.1 64位,16GB RAM,Python 3.5.1
答案 0 :(得分:11)
读取的文件很快(< 1s):
with open('number.txt') as f:
data = f.read()
将3000万字节的字符串转换为整数,这很慢:
z=int(data) # still waiting...
如果将数字存储为原始大端或小端二进制数据,则int.from_bytes(data,'big')
要快得多。
如果我的数学运算正确(注意_
表示Python的交互式解释器中的“最后一行答案”):
>>> import math
>>> math.log(10)/math.log(2) # Number of bits to represent a base 10 digit.
3.3219280948873626
>>> 30000000*_ # Number of bits to represent 30M-digit #.
99657842.84662087
>>> _/8 # Number of bytes to represent 30M-digit #.
12457230.35582761 # Only ~12MB so file will be smaller :^)
>>> import os
>>> data=os.urandom(12457231) # Generate some random bytes
>>> z=int.from_bytes(data,'big') # Convert to integer (<1s)
99657848
>>> math.log10(z) # number of base-10 digits in number.
30000001.50818886
编辑:仅供参考,我的数学不对,但我修好了。感谢10个赞成票而没有注意到:^)
答案 1 :(得分:3)
一个30MB的文本文件不应该花很长时间才能阅读,现代硬盘应该可以在不到一秒的时间内完成(不计入访问时间)
在这种情况下,使用标准python文件IO应该可以正常工作:
with open('my_file', 'r') as handle:
content = handle.read()
在我的笔记本电脑上使用它可以产生不到一秒的时间。
然而,将这30 MB转换为整数是您的瓶颈,
因为python不能用long
数据类型来表示它。
您可以尝试使用Decimal模块,但它主要用于浮点运算。
除此之外,当然还有numpy,它可能更快(因为你可能想稍后使用这个数字做一些工作,所以使用这样的库是有意义的)。
答案 2 :(得分:1)
我使用gmpy2模块将字符串转换为数字。
cellForRowAtIndexPath
它在3秒内工作,慢得多,但至少它给了我一个整数值。
谢谢大家的宝贵答案,但我会尽快给你留下这个答案。