有效转换大熊猫DataFrame

时间:2015-03-13 18:11:53

标签: python pandas cython opentsdb

我有几个指标(每秒2000行×100列数据帧,可能更大),我想将它们存储在OpenTSDB中。为此,我需要以数据库理解的方式格式化值,telnet stylejson style

问题是,使用天真的python函数,我无法足够快地处理它们。这是我的第一个方法:

def ndarray_to_opentsdb_series_comprehension(frame, table, **tags):
    series = [{
        "metric": '{table}.{col}'.format(
            table=table, col=frame.columns[col].item()
         ),
         "timestamp": frame.index[idx].item(),
         "value": val.item(),
         "tags": tags
    } for col, serie in frame.iteritems() for idx, val in serie.iteritems()]
    return json.dumps(series)

在2000x100数据帧上使用timeit,我得到:

In [1]: %timeit utilities.ndarray_to_opentsdb_series_comprehension(f, 't1', p1='p1')
1 loops, best of 3: 3.9 s per loop

然后我尝试使用DataFrame.apply函数更有效地迭代我的数据,但为了得到我需要的所有信息,我必须多次这样做:

def ndarray_to_opentsdb_series_tmp_df(frame, table, **tags):
    tags_str = ' '.join('{k}={v}'.format(k=k, v=v) for k, v in tags.items())
    df = frame.apply(lambda s: s.apply(lambda e: '{ts} {v} {tags}'.format(ts=s.name, v=e, tags=tags_str)), axis=1)
    df = df.apply(lambda s: s.apply(lambda e: '{table}.{col} {v}'.format(table=table, col=s.name, v=e)), axis=0)
    flat = [e for l in df.values.tolist() for e in l]
    return '\n'.join(flat)

(我尝试过其他没有创建多个数据帧的实现,但它的速度和这个差不多一样。)

此处timeit说:

In[1]: %timeit utilities.ndarray_to_opentsdb_series_tmp_df(f, 't1', p1='p1')
1 loops, best of 3: 2.59 s per loop

我已经获得了超过一秒的时间,但仍然不够,我需要能够在一秒钟内处理那么多数据。在我的测试中,我意识到最耗时的是在我的DataFrame中检索给定值的索引列对,但是我需要这些来构建我的OpenTSDB请求。

有没有办法只使用python处理大型DataFrame,或者我应该尝试在Cython中实现这个逻辑?我知道我可以获得巨大的改进,但我想确保在尝试使用较低级别的语言进行优化之前,我有最佳的python代码。

1 个答案:

答案 0 :(得分:1)

好吧,我设法在~.5秒内处理我的2000行x 100列DataFrame。在prun中使用ipython,我发现访问frame.columnsframe.index的费用很高,就像使用string.format一样。

我选择首先使用他们的tolist()方法将我的DataFrame的列和索引转换为Python列表,然后将其编入索引。我停止使用string.format并使用了%格式化程序(仅此一项就减少了我的函数的执行次数!)​​。

另外,我使用raw方法的DataFrame.apply属性来获取numpy.ndarray作为我的lambda函数的参数而不是pandas.Series。然后我使用列表理解来迭代它。

这是我修改过的功能:

def ndarray_to_opentsdb_series(frame, table, **tags):
    tags_str = ' '.join('{k}={v}'.format(k=k, v=v) for k, v in tags.items())
    indices = frame.index.tolist()
    columns = frame.columns.tolist()
    df = frame.apply(lambda s: ['%d %d %s' % (indices[i], e, tags_str) for i, e in enumerate(s)], axis=0, raw=True)
    df = df.apply(lambda s: ['%s.%d %s' % (table, columns[i], e) for i, e in enumerate(s)], axis=1, raw=True)
    flat = [e for l in df.values.tolist() for e in l]
    return '\n'.join(flat)

简单地将其编译为Cython代码会将运行时间再缩短100ms,我现在将尝试在Cython中进行更多优化。