为什么len在DataFrame上比在底层numpy数组上效率更高?

时间:2016-12-07 01:26:16

标签: python pandas numpy

我注意到在DataFrame上使用len比在底层numpy数组上使用len要快得多。我不明白为什么。通过shape访问相同的信息也不是任何帮助。当我尝试获取列数和行数时,这更相关。我一直在争论使用哪种方法。

我将以下实验放在一起,非常清楚我将在数据帧上使用len。但有人可以解释为什么吗?

from timeit import timeit
import pandas as pd
import numpy as np

ns = np.power(10, np.arange(6))
results = pd.DataFrame(
    columns=ns,
    index=pd.MultiIndex.from_product(
        [['len', 'len(values)', 'shape'],
         ns]))
dfs = {(n, m): pd.DataFrame(np.zeros((n, m))) for n in ns for m in ns}

for n, m in dfs.keys():
    df = dfs[(n, m)]
    results.loc[('len', n), m] = timeit('len(df)', 'from __main__ import df', number=10000)
    results.loc[('len(values)', n), m] = timeit('len(df.values)', 'from __main__ import df', number=10000)
    results.loc[('shape', n), m] = timeit('df.values.shape', 'from __main__ import df', number=10000)


fig, axes = plt.subplots(2, 3, figsize=(9, 6), sharex=True, sharey=True)
for i, (m, col) in enumerate(results.iteritems()):
    r, c = i // 3, i % 3
    col.unstack(0).plot.bar(ax=axes[r, c], title=m)

enter image description here

2 个答案:

答案 0 :(得分:4)

通过查看各种方法,主要原因是构建numpy数组df.values占用了大部分时间

len(df)df.shape

这两个很快,因为它们基本上是

len(df.index._data)

(len(df.index._data), len(df.columns._data))

其中_datanumpy.ndarray。因此,使用df.shape的速度应该是len(df)的一半,因为它可以找到df.indexdf.columns的长度(pd.Index类型)

len(df.values)df.values.shape

我们说你已经提取了vals = df.values。然后

In [1]: df = pd.DataFrame(np.random.rand(1000, 10), columns=range(10))

In [2]: vals = df.values

In [3]: %timeit len(vals)
10000000 loops, best of 3: 35.4 ns per loop

In [4]: %timeit vals.shape
10000000 loops, best of 3: 51.7 ns per loop

与:相比:

In [5]: %timeit len(df.values)
100000 loops, best of 3: 3.55 µs per loop

因此,瓶颈不是len,而是如何构建df.values。如果您检查pandas.DataFrame.values(),您将找到(大致相当的)方法:

def values(self):
    return self.as_matrix()

def as_matrix(self, columns=None):
    self._consolidate_inplace()
    if self._AXIS_REVERSED:
        return self._data.as_matrix(columns).T

    if len(self._data.blocks) == 0:
        return np.empty(self._data.shape, dtype=float)

    if columns is not None:
        mgr = self._data.reindex_axis(columns, axis=0)
    else:
        mgr = self._data

    if self._data._is_single_block or not self._data.is_mixed_type:
        return mgr.blocks[0].get_values()
    else:
        dtype = _interleaved_dtype(self.blocks)
        result = np.empty(self.shape, dtype=dtype)
        if result.shape[0] == 0:
            return result

        itemmask = np.zeros(self.shape[0])
        for blk in self.blocks:
            rl = blk.mgr_locs
            result[rl.indexer] = blk.get_values(dtype)
            itemmask[rl.indexer] = 1

        # vvv here is your final array assuming you actually have data
        return result 

def _consolidate_inplace(self):
    def f():
        if self._data.is_consolidated():
            return self._data

        bm = self._data.__class__(self._data.blocks, self._data.axes)
        bm._is_consolidated = False
        bm._consolidate_inplace()
        return bm
    self._protect_consolidate(f)

def _protect_consolidate(self, f):
    blocks_before = len(self._data.blocks)
    result = f()
    if len(self._data.blocks) != blocks_before:
        if i is not None:
            self._item_cache.pop(i, None)
        else:
            self._item_cache.clear()
    return result

请注意,df._datapandas.core.internals.BlockManager,而不是numpy.ndarray

答案 1 :(得分:2)

如果您Length 3 joe can car Length 4 cars 查看__len__,他们实际上只是致电pd.DataFramehttps://github.com/pandas-dev/pandas/blob/master/pandas/core/frame.py#L770

对于len(df.index),这是一个非常快速的操作,因为它只是存储在索引对象中的值的减法和除法:

RangeIndex

https://github.com/pandas-dev/pandas/blob/master/pandas/indexes/range.py#L458

我怀疑如果你用非return max(0, -(-(self._stop - self._start) // self._step)) 进行测试,时间上的差异会更加相似。如果是这种情况,我可能会尝试修改你要看的东西。

编辑:经过快速检查后,即使使用标准RangeIndex,速度差异似乎仍然保持不变,因此必须进行其他一些优化。