有些日子我只是讨厌使用中间件。以此为例:我想要一个查找表,将一组输入(域)值中的值映射到输出(范围)值。映射是唯一的。 Python地图可以做到这一点,但由于地图非常大,我想,为什么不使用ps.Series及其索引,这增加了我可以的好处:
domain2range = pd.Series(allrangevals, index=alldomainvals)
# Apply the map
query_vals = pd.Series(domainvals, index=someindex)
result = query_vals.map(domain2range)
assert result.index is someindex # Nice
assert (result.values in allrangevals).all() # Nice
按预期工作。但不是。以上.map的时间成本随着len(domain2range)
的增加而增加(更明智地)O(len(query_vals))
,如下所示:
numiter = 100
for n in [10, 1000, 1000000, 10000000,]:
domain = np.arange(0, n)
range = domain+10
maptable = pd.Series(range, index=domain).sort_index()
query_vals = pd.Series([1,2,3])
def f():
query_vals.map(maptable)
print n, timeit.timeit(stmt=f, number=numiter)/numiter
10 0.000630810260773
1000 0.000978469848633
1000000 0.00130645036697
10000000 0.0162791204453
捂脸。在n = 10000000时,每个映射值采用(0.01 / 3)秒。
所以,问题:
答案 0 :(得分:1)
https://github.com/pandas-dev/pandas/issues/21278
热身是个问题。 (double facepalm)。 Pandas在第一次使用时默默地构建和缓存哈希索引(O(maple))。调用测试函数并预先建立索引更好的性能。
numiter = 100
for n in [10, 100000, 1000000, 10000000,]:
domain = np.arange(0, n)
range = domain+10
maptable = pd.Series(range, index=domain) #.sort_index()
query_vals = pd.Series([1,2,3])
def f1():
query_vals.map(maptable)
f1()
print "Pandas1 ", n, timeit.timeit(stmt=f1, number=numiter)/numiter
def f2():
query_vals.map(maptable.get)
f2()
print "Pandas2 ", n, timeit.timeit(stmt=f2, number=numiter)/numiter
maptabledict = maptable.to_dict()
query_vals_list = pd.Series([1,2,3]).tolist()
def f3():
{k: maptabledict[k] for k in query_vals_list}
f3()
print "Py dict ", n, timeit.timeit(stmt=f3, number=numiter)/numiter
print
pd.show_versions()
Pandas1 10 0.000621199607849
Pandas2 10 0.000686831474304
Py dict 10 2.0170211792e-05
Pandas1 100000 0.00149286031723
Pandas2 100000 0.00118808984756
Py dict 100000 8.47816467285e-06
Pandas1 1000000 0.000708899497986
Pandas2 1000000 0.000479419231415
Py dict 1000000 1.64794921875e-05
Pandas1 10000000 0.000798969268799
Pandas2 10000000 0.000410139560699
Py dict 10000000 1.47914886475e-05
...虽然有点令人沮丧的是python词典快了10倍。