作为我正在编写的项目的一部分,我生成了很多列联表。
工作流程为:
最初,我这样写:
def make_table(x, y, num_bins):
ctable = np.zeros((num_bins, num_bins), dtype=np.dtype(int))
for xn, yn in zip(x, y):
ctable[xn, yn] += 1
return ctable
这很好,但是速度太慢,以至于占用了整个项目运行时间的90%。
我能够想到的最快的仅python优化是这样的:
def make_table(x, y, num_bins):
ctable = np.zeros(num_bins ** 2, dtype=np.dtype(int))
reindex = np.dot(np.stack((x, y)).transpose(),
np.array([num_bins, 1]))
idx, count = np.unique(reindex, return_counts=True)
for i, c in zip(idx, count):
ctable[i] = c
return ctable.reshape((num_bins, num_bins))
这(以某种方式)要快得多,但是对于似乎不应该成为瓶颈的东西来说,它仍然是相当昂贵的。有什么有效的方法可以实现,而我只是想放弃,还是应该在cython中做到这一点?
此外,这是一个基准测试功能。
def timetable(func):
size = 5000
bins = 10
repeat = 1000
start = time.time()
for i in range(repeat):
x = np.random.randint(0, bins, size=size)
y = np.random.randint(0, bins, size=size)
func(x, y, bins)
end = time.time()
print("Func {na}: {ti} Ms".format(na=func.__name__, ti=(end - start)))
答案 0 :(得分:1)
可以更快地将np.stack((x, y))
的元素表示为整数的巧妙技巧:
In [92]: %timeit np.dot(np.stack((x, y)).transpose(), np.array([bins, 1]))
109 µs ± 6.55 µs per loop (mean ± std. dev. of 7 runs, 10000 loops each)
In [94]: %timeit bins*x + y
12.1 µs ± 260 ns per loop (mean ± std. dev. of 7 runs, 100000 loops each)
此外,只需考虑一下
,就可以在某种程度上简化第二种解决方案的最后一部分np.unique(bins * x + y, return_counts=True)[1].reshape((bins, bins))
此外,由于我们正在处理等距的非负整数,因此np.bincount
的性能将胜过np.unique
;这样,以上内容可以归结为
np.bincount(bins * x + y).reshape((bins, bins))
总而言之,这提供了与您当前正在执行的操作相当的性能:
In [78]: %timeit make_table(x, y, bins) # Your first solution
3.86 ms ± 159 µs per loop (mean ± std. dev. of 7 runs, 100 loops each)
In [79]: %timeit make_table2(x, y, bins) # Your second solution
443 µs ± 23.7 µs per loop (mean ± std. dev. of 7 runs, 1000 loops each)
In [101]: %timeit np.unique(bins * x + y, return_counts=True)[1].reshape((bins, bins))
307 µs ± 25 µs per loop (mean ± std. dev. of 7 runs, 1000 loops each)
In [118]: %timeit np.bincount(bins * x + y).reshape((10, 10))
30.3 µs ± 3.44 µs per loop (mean ± std. dev. of 7 runs, 10000 loops each)
您可能还想知道np.histogramdd
会同时处理舍入和合并,尽管它可能比舍入和使用np.bincount
慢。