在熊猫和/或numpy中高效简单地从长格式转换为宽格式

时间:2018-01-30 17:18:53

标签: python pandas numpy

我有一些非常简单的数据以长格式提供,我想转换成数组。行/列索引是字符串(但可以是非顺序的整数),值是浮点数。我在下面生成了一些简化数据。请注意,在转换为数组之前需要清理真正的原始数据,因此起点是pandas数据帧。

以下所有解决方案均可获得预期产量,但所测试的解决方案似乎都不令人满意。 pandas pivot / pivot_table解决方案非常优雅,但比不那么可读的numpy解决方案慢了几个。

之前有没有人遇到过这个问题,如果有的话,你找到了一个干净而快速的解决方案吗?

生成数据

In [1]:
import pandas as pd
import numpy as np
import itertools
import random
import scipy.sparse

In [2]:
pairs = list(itertools.product('ABCD', repeat=2))
random.shuffle(pairs)
data = [(x,y,v) for (x,y),v in list(zip(pairs, np.linspace(0,1,len(pairs))))]
df = pd.DataFrame(data, columns=['row','col','value'], index=range(1,len(data)+1))

In [6]:
df

Out[6]:
    row     col     value
1   D   A   0.000000
2   B   A   0.066667
3   D   B   0.133333
4   C   C   0.200000
5   A   A   0.266667
6   B   B   0.333333
7   C   B   0.400000
8   A   B   0.466667
9   A   C   0.533333
10  C   D   0.600000
11  D   C   0.666667
12  C   A   0.733333
13  A   D   0.800000
14  D   D   0.866667
15  B   D   0.933333
16  B   C   1.000000

预期输出

array([[0.26666667, 0.46666667, 0.53333333, 0.8       ],
       [0.06666667, 0.33333333, 1.        , 0.93333333],
       [0.73333333, 0.4       , 0.2       , 0.6       ],
       [0.        , 0.13333333, 0.66666667, 0.86666667]])

解决方案1:在pandas中使用pivot_table

In [16]:
%%timeit
pivoted_arr1 = df.pivot_table(index='row', columns='col', values='value').values

3.77 ms ± 159 µs per loop (mean ± std. dev. of 7 runs, 100 loops each)

解决方案1b:在pandas中使用pivot

In [17]:
%%timeit
pivoted_arr1b = df.pivot(index='row', columns='col', values='value').values

1.15 ms ± 6.98 µs per loop (mean ± std. dev. of 7 runs, 1000 loops each)

解决方案2:在scipy中使用coo_matrix

In [11]:
df = pd.DataFrame(data, columns=['row','col','value'], index=range(1,len(data)+1))

In [18]:
%%timeit
df_indexed = df.set_index(['row', 'col'])
pivoted_arr2 = scipy.sparse.coo_matrix((df_indexed.value, (df_indexed.index.labels[0], df_indexed.index.labels[1]))).toarray()

1.3 ms ± 29.2 µs per loop (mean ± std. dev. of 7 runs, 1000 loops each)

解决方案3:使用numpy

In [19]:
%%timeit
arr = df.values
rows, row_pos = np.unique(arr[:, 0], return_inverse=True)
cols, col_pos = np.unique(arr[:, 1], return_inverse=True)
pivoted_arr3 = np.zeros((len(rows), len(cols)))
pivoted_arr3[row_pos, col_pos] = arr[:, 2]

112 µs ± 487 ns per loop (mean ± std. dev. of 7 runs, 10000 loops each)

1 个答案:

答案 0 :(得分:1)

所以造成这种情况的原因是Pandas有很多开销。因此,当输入较小时,一个复杂的Pandas方法比一些廉价的numpy方程慢,这应该不足为奇。你不能用这么小的测试来结束任何事情。

那么如果你用一个很好的例子进行测试会发生什么?

pairs = list(itertools.product('abcd', repeat=2))
random.shuffle(pairs)
data = [(x,y,v) for (x,y),v in list(zip(pairs, np.linspace(0,1,len(pairs))))]
df = pd.DataFrame(data, columns=['row','col','value'], index=range(1,len(data)+1))

透视小测试

In [21]:
%%timeit
pivoted_arr1b = df.pivot(index='row', columns='col', values='value').values
1000 loops, best of 3: 1.27 ms per loop

Numpy Small Test

In [22]:
%%timeit
arr = df.values
rows, row_pos = np.unique(arr[:, 0], return_inverse=True)
cols, col_pos = np.unique(arr[:, 1], return_inverse=True)
pivoted_arr3 = np.zeros((len(rows), len(cols)))
pivoted_arr3[row_pos, col_pos] = arr[:, 2]
The slowest run took 4.68 times longer than the fastest. This could mean that an intermediate result is being cached.
10000 loops, best of 3: 120 µs per loop

进行大型测试

In [26]:
pairs = list(itertools.product('qwertyuiopasdfghjklzxcvbnmQWERTYUIOPASDFGHJKLZXCVBNM', repeat=2))
random.shuffle(pairs)
data = [(x,y,v) for (x,y),v in list(zip(pairs, np.linspace(0,1,len(pairs))))]
df = pd.DataFrame(data, columns=['row','col','value'], index=range(1,len(data)+1))

转动大型测试

In [27]:
%%timeit
pivoted_arr1b = df.pivot(index='row', columns='col', values='value').values
100 loops, best of 3: 2.03 ms per loop

转动大型测试

In [28]:
%%timeit
arr = df.values
rows, row_pos = np.unique(arr[:, 0], return_inverse=True)
cols, col_pos = np.unique(arr[:, 1], return_inverse=True)
pivoted_arr3 = np.zeros((len(rows), len(cols)))
pivoted_arr3[row_pos, col_pos] = arr[:, 2]
100 loops, best of 3: 2.27 ms per loop

因此,对于一个非常大的测试用例,pandas实际上更快。它不仅速度更快,而且时间复杂度也更好。当行数乘以13时,时间甚至不会加倍。

如果你想在很多小矩阵上应用这个操作,这一切都没有用。但这并不是熊猫真正的目的。