注意:我是一名Ruby开发人员,试图在Python中找到自己的方式。
当我想弄清楚为什么有些脚本使用mylist[:]
而不是list(mylist)
来复制列表时,我对复制range(10)
的各种方法做了快速基准测试(请参阅下面的代码)
编辑:我更新了测试以使用Python的timeit
,如下所示。这使得无法直接将它与Ruby进行比较,因为 timeit 不考虑Ruby的Benchmark
所做的循环,因此Ruby代码仅用于引用
Python 2.7.2
Array duplicating. Tests run 50000000 times
list(a) 18.7599430084
copy(a) 59.1787488461
a[:] 9.58828091621
a[0:len(a)] 14.9832749367
作为参考,我也在Ruby中编写了相同的脚本:
Ruby 1.9.2p0
Array duplicating. Tests 50000000 times
user system total real
Array.new(a) 14.590000 0.030000 14.620000 ( 14.693033)
Array[*a] 18.840000 0.060000 18.900000 ( 19.156352)
a.take(a.size) 8.780000 0.020000 8.800000 ( 8.805700)
a.clone 16.310000 0.040000 16.350000 ( 16.384711)
a[0,a.size] 8.950000 0.020000 8.970000 ( 8.990514)
问题1: mylist[:]
做什么不同, 25%比mylist[0:len(mylist)]
更快。它是直接复制到内存还是什么?
问题2: 编辑:更新的基准测试不再显示Python和Ruby的巨大差异。 是:我是否以一种明显低效的方式实现了测试,因此Ruby代码比Python快得多?
现在代码清单:
的Python:
import timeit
COUNT = 50000000
print "Array duplicating. Tests run", COUNT, "times"
setup = 'a = range(10); import copy'
print "list(a)\t\t", timeit.timeit(stmt='list(a)', setup=setup, number=COUNT)
print "copy(a)\t\t", timeit.timeit(stmt='copy.copy(a)', setup=setup, number=COUNT)
print "a[:]\t\t", timeit.timeit(stmt='a[:]', setup=setup, number=COUNT)
print "a[0:len(a)]\t", timeit.timeit(stmt='a[0:len(a)]', setup=setup, number=COUNT)
红宝石:
require 'benchmark'
a = (0...10).to_a
COUNT = 50_000_000
puts "Array duplicating. Tests #{COUNT} times"
Benchmark.bm(16) do |x|
x.report("Array.new(a)") {COUNT.times{ Array.new(a) }}
x.report("Array[*a]") {COUNT.times{ Array[*a] }}
x.report("a.take(a.size)") {COUNT.times{ a.take(a.size) }}
x.report("a.clone") {COUNT.times{ a.clone }}
x.report("a[0,a.size]"){COUNT.times{ a[0,a.size] }}
end
答案 0 :(得分:9)
使用python中的timeit
模块测试时间。
from copy import *
a=range(1000)
def cop():
b=copy(a)
def func1():
b=list(a)
def slice():
b=a[:]
def slice_len():
b=a[0:len(a)]
if __name__=="__main__":
import timeit
print "copy(a)",timeit.timeit("cop()", setup="from __main__ import cop")
print "list(a)",timeit.timeit("func1()", setup="from __main__ import func1")
print "a[:]",timeit.timeit("slice()", setup="from __main__ import slice")
print "a[0:len(a)]",timeit.timeit("slice_len()", setup="from __main__ import slice_len")
结果:
copy(a) 3.98940896988
list(a) 2.54542589188
a[:] 1.96630120277 #winner
a[0:len(a)] 10.5431251526
a[0:len(a)]
所涉及的额外步骤肯定是它缓慢的原因。
这是两者的字节代码比较:
In [19]: dis.dis(func1)
2 0 LOAD_GLOBAL 0 (range)
3 LOAD_CONST 1 (100000)
6 CALL_FUNCTION 1
9 STORE_FAST 0 (a)
3 12 LOAD_FAST 0 (a)
15 SLICE+0
16 STORE_FAST 1 (b)
19 LOAD_CONST 0 (None)
22 RETURN_VALUE
In [20]: dis.dis(func2)
2 0 LOAD_GLOBAL 0 (range)
3 LOAD_CONST 1 (100000)
6 CALL_FUNCTION 1
9 STORE_FAST 0 (a)
3 12 LOAD_FAST 0 (a) #same up to here
15 LOAD_CONST 2 (0) #loads 0
18 LOAD_GLOBAL 1 (len) # loads the builtin len(),
# so it might take some lookup time
21 LOAD_FAST 0 (a)
24 CALL_FUNCTION 1
27 SLICE+3
28 STORE_FAST 1 (b)
31 LOAD_CONST 0 (None)
34 RETURN_VALUE
答案 1 :(得分:5)
我不能评论ruby时间与python时间。但我可以对list
与slice
发表评论。这是对字节码的快速检查:
>>> import dis
>>> a = range(10)
>>> def func(a):
... return a[:]
...
>>> def func2(a):
... return list(a)
...
>>> dis.dis(func)
2 0 LOAD_FAST 0 (a)
3 SLICE+0
4 RETURN_VALUE
>>> dis.dis(func2)
2 0 LOAD_GLOBAL 0 (list)
3 LOAD_FAST 0 (a)
6 CALL_FUNCTION 1
9 RETURN_VALUE
请注意,list
需要LOAD_GLOBAL
才能找到函数list
。在python中查找全局变量(和调用函数)相对较慢。这可以解释为什么a[0:len(a)]
也较慢。还要记住list
需要能够处理任意迭代器,而切片则不能。这意味着list
需要分配一个新列表,在迭代列表时将元素打包到该列表中,并在必要时调整大小。这里有一些很昂贵的东西 - 必要时调整大小并迭代(有效地在python中,而不是C)。使用切片方法,您可以计算您需要的内存大小,因此可以避免调整大小,并且迭代可以在C中完成(可能使用memcpy
或其他内容。
免责声明:我不是python dev,所以我不知道list()
的内部是如何实现的。我只是根据我对规范的了解进行推测。
编辑 - 所以我查看了源代码(在Martijn的指导下)。相关代码位于listobject.c
。 list
调用list_init
,然后在第799行调用listextend
。该函数有一些检查,如果对象是列表或元组,它是否可以使用快速分支(第812行) 。最后,从第834行开始进行繁重的工作:
src = PySequence_Fast_ITEMS(b);
dest = self->ob_item + m;
for (i = 0; i < n; i++) {
PyObject *o = src[i];
Py_INCREF(o);
dest[i] = o;
}
将其与我认为在list_subscript
中定义的切片版本(第2544行)进行比较。这会调用list_slice
(第2570行),其中繁重的工作由以下循环完成(第486行):
src = a->ob_item + ilow;
dest = np->ob_item;
for (i = 0; i < len; i++) {
PyObject *v = src[i];
Py_INCREF(v);
dest[i] = v;
}
它们几乎是相同的代码,因此大型列表的性能几乎相同也就不足为奇了(其中包括解包切片,查找全局变量等小东西的开销变得不那么重要)
以下是我将如何运行python测试(以及我的Ubuntu系统的结果):
$ python -m timeit -s 'a=range(30)' 'list(a)'
1000000 loops, best of 3: 0.39 usec per loop
$ python -m timeit -s 'a=range(30)' 'a[:]'
10000000 loops, best of 3: 0.183 usec per loop
$ python -m timeit -s 'a=range(30)' 'a[0:len(a)]'
1000000 loops, best of 3: 0.254 usec per loop