我有几个指标(每秒2000行×100列数据帧,可能更大),我想将它们存储在OpenTSDB中。为此,我需要以数据库理解的方式格式化值,telnet style或json style。
问题是,使用天真的python函数,我无法足够快地处理它们。这是我的第一个方法:
def ndarray_to_opentsdb_series_comprehension(frame, table, **tags):
series = [{
"metric": '{table}.{col}'.format(
table=table, col=frame.columns[col].item()
),
"timestamp": frame.index[idx].item(),
"value": val.item(),
"tags": tags
} for col, serie in frame.iteritems() for idx, val in serie.iteritems()]
return json.dumps(series)
在2000x100数据帧上使用timeit
,我得到:
In [1]: %timeit utilities.ndarray_to_opentsdb_series_comprehension(f, 't1', p1='p1')
1 loops, best of 3: 3.9 s per loop
然后我尝试使用DataFrame.apply
函数更有效地迭代我的数据,但为了得到我需要的所有信息,我必须多次这样做:
def ndarray_to_opentsdb_series_tmp_df(frame, table, **tags):
tags_str = ' '.join('{k}={v}'.format(k=k, v=v) for k, v in tags.items())
df = frame.apply(lambda s: s.apply(lambda e: '{ts} {v} {tags}'.format(ts=s.name, v=e, tags=tags_str)), axis=1)
df = df.apply(lambda s: s.apply(lambda e: '{table}.{col} {v}'.format(table=table, col=s.name, v=e)), axis=0)
flat = [e for l in df.values.tolist() for e in l]
return '\n'.join(flat)
(我尝试过其他没有创建多个数据帧的实现,但它的速度和这个差不多一样。)
此处timeit
说:
In[1]: %timeit utilities.ndarray_to_opentsdb_series_tmp_df(f, 't1', p1='p1')
1 loops, best of 3: 2.59 s per loop
我已经获得了超过一秒的时间,但仍然不够,我需要能够在一秒钟内处理那么多数据。在我的测试中,我意识到最耗时的是在我的DataFrame中检索给定值的索引列对,但是我需要这些来构建我的OpenTSDB请求。
有没有办法只使用python处理大型DataFrame,或者我应该尝试在Cython中实现这个逻辑?我知道我可以获得巨大的改进,但我想确保在尝试使用较低级别的语言进行优化之前,我有最佳的python代码。
答案 0 :(得分:1)
好吧,我设法在~.5秒内处理我的2000行x 100列DataFrame。在prun
中使用ipython
,我发现访问frame.columns
和frame.index
的费用很高,就像使用string.format
一样。
我选择首先使用他们的tolist()
方法将我的DataFrame的列和索引转换为Python列表,然后将其编入索引。我停止使用string.format
并使用了%
格式化程序(仅此一项就减少了我的函数的执行次数!)。
另外,我使用raw
方法的DataFrame.apply
属性来获取numpy.ndarray
作为我的lambda函数的参数而不是pandas.Series
。然后我使用列表理解来迭代它。
这是我修改过的功能:
def ndarray_to_opentsdb_series(frame, table, **tags):
tags_str = ' '.join('{k}={v}'.format(k=k, v=v) for k, v in tags.items())
indices = frame.index.tolist()
columns = frame.columns.tolist()
df = frame.apply(lambda s: ['%d %d %s' % (indices[i], e, tags_str) for i, e in enumerate(s)], axis=0, raw=True)
df = df.apply(lambda s: ['%s.%d %s' % (table, columns[i], e) for i, e in enumerate(s)], axis=1, raw=True)
flat = [e for l in df.values.tolist() for e in l]
return '\n'.join(flat)
简单地将其编译为Cython代码会将运行时间再缩短100ms,我现在将尝试在Cython中进行更多优化。