Pandas - 为什么read_csv与chunking'on'比没有小文件更快?

时间:2016-06-14 09:47:46

标签: python csv pandas dataframe

我正在读一个有点大表(90 * 85000)的字符串,整数和缺失值到pandas中。该文件很容易融入我的记忆中。我还在具有足够内存的服务器上运行脚本,观察相同的行为。

我认为批量读取文件会比分块更快或更快。然而,使用'chunksize = any_number',pandas读取文件的速度提高了近300倍(11.138s对0.039s)。

有人可以解释这种行为吗?

我的代码:

startTime = datetime.now()
df=pd.read_csv(dataFile,delim_whitespace=True)
print datetime.now() - startTime

startTime = datetime.now()
df=pd.read_csv(dataFile,delim_whitespace=True, chunksize=10)
print datetime.now() - startTime

1 个答案:

答案 0 :(得分:6)

因为在第二部分中你创建了一个pandas.io.parsers.TextFileReader object(迭代器)......

演示:

In [17]: df = pd.DataFrame(np.random.randint(0, 10, size=(20, 3)), columns=list('abc'))

In [18]: df.to_csv('d:/temp/test.csv')

In [19]: reader = pd.read_csv('d:/temp/test.csv', chunksize=10, index_col=0)

In [20]: print(reader)
<pandas.io.parsers.TextFileReader object at 0x000000000827CB70>

如何使用此迭代器

In [21]: for df in reader:
   ....:     print(df)
   ....:
   a  b  c
0  0  5  6
1  6  0  6
2  2  5  0
3  3  6  2
4  5  7  2
5  5  2  9
6  0  0  1
7  4  8  3
8  1  8  0
9  0  8  8
    a  b  c
10  7  9  1
11  6  7  9
12  7  3  2
13  6  4  4
14  7  4  1
15  2  6  5
16  5  2  2
17  9  9  7
18  4  9  0
19  0  1  9

在代码的第一部分中,您已在一个DF(数据框)中读取整个CSV文件。显然需要更长的时间,因为迭代器对象(上面演示中的reader)在您开始迭代它之前不会从CSV文件中读取数据

示例:让我们创建一个1M行DF并比较pd.read_csv(...)pd.read_csv(..., chunksize=1000)的时间:

In [24]: df = pd.DataFrame(np.random.randint(0, 10, size=(10**6, 3)), columns=list('abc'))

In [25]: df.shape
Out[25]: (1000000, 3)

In [26]: df.to_csv('d:/temp/test.csv')

In [27]: %timeit pd.read_csv('d:/temp/test.csv', index_col=0)
1 loop, best of 3: 1.21 s per loop

In [28]: %timeit pd.read_csv('d:/temp/test.csv', index_col=0, chunksize=1000)
100 loops, best of 3: 4.42 ms per loop