我在python中有以下代码,至少对我来说会产生奇怪的结果:
import numpy as np
import timeit
a = np.random.rand(3,2)
print timeit.timeit('a[2,1] + 1', 'from __main__ import a', number=1000000)
print timeit.timeit('a.item((2,1)) + 1', 'from __main__ import a', number=1000000)
这给出了结果:
0.533630132675
0.103801012039
如果我只尝试访问numpy元素似乎没问题,但是当增加这个元素时,时间变得奇怪......为什么时间上有这么大差异?
答案 0 :(得分:18)
在这种情况下,他们不会返回相同的东西。 a[2,1]
返回numpy.float64
,而a.item((2,1))
返回本机python浮点数。
numpy
标量(float
,int
等) numpy.float64
标量与本机python float
完全相同(但它们的行为相同)。使用本机python浮点数对单个元素的简单操作会更快,因为间接性较低。有关详细信息,请查看docstring for ndarray.item
。
作为速度差异的一个例子,请考虑以下因素:
In [1]: x = 1.2
In [2]: y = np.float64(1.2)
In [3]: %timeit x + 1
10000000 loops, best of 3: 58.9 ns per loop
In [4]: %timeit y + 1
1000000 loops, best of 3: 241 ns per loop
最初,我错误地说第二个因素是a.item(...)
略快于a[...]
。这实际上并非如此。 a.item
将numpy标量转换为本机python标量所花费的时间压倒了a[...]
/ a.__getitem__(...)
中额外逻辑所需的时间。
但是,你应该小心尝试将numpy标量所发生的事情概括为numpy数组如何作为一个整体运行。如果您在numpy中进行了大量的单项索引,那么它通常是一种反模式。
例如,比较:
In [5]: a = np.random.rand(1000)
In [6]: %timeit a + 1
100000 loops, best of 3: 2.32 us per loop
无论我们做什么,我们都无法匹配上述矢量化版本(a + 1
)的速度(或更低的内存使用量):
In [7]: %timeit [x + 1 for x in a]
1000 loops, best of 3: 257 us per loop
In [8]: %timeit [a.item(i) + 1 for i in range(len(a))]
1000 loops, best of 3: 208 us per loop
其中一些原因是因为迭代ndarray
s比遍历列表要慢。为了进行完全公平的比较,让我们将所有内容转换为本机python浮点数列表:
In [9]: b = a.tolist()
In [10]: type(b[0])
Out[10]: float
In [11]: %timeit [x + 1 for x in b]
10000 loops, best of 3: 69.4 us per loop
显然,当您在较大的阵列上操作时,使用矢量化操作(第一种情况)要快得多。它的内存效率也要高得多,因为list
需要存储指向每个项目的指针,而ndarray
s在内存中是连续的。