根据this answer列表,在许多情况下,例如,与str.join
一起使用时,其性能要优于生成器(因为算法需要将数据传递两次)。
在下面的示例中,使用 list comprehension 似乎比使用相应的生成器表达式产生更好的性能,尽管直观地讲,list comprehension带有分配和复制到生成器回避的其他内存的开销。
In [1]: l = list(range(2_000_000))
In [2]: %timeit l[:] = [i*3 for i in range(len(l))]
190 ms ± 4.65 ms per loop (mean ± std. dev. of 7 runs, 1 loop each)
In [3]: %timeit l[:] = (i*3 for i in range(len(l)))
261 ms ± 7.14 ms per loop (mean ± std. dev. of 7 runs, 1 loop each)
In [4]: %timeit l[::2] = [i*3 for i in range(len(l)//2)]
97.1 ms ± 2.07 ms per loop (mean ± std. dev. of 7 runs, 10 loops each)
In [5]: %timeit l[::2] = (i*3 for i in range(len(l)//2))
129 ms ± 2.21 ms per loop (mean ± std. dev. of 7 runs, 10 loops each)
In [6]: %timeit l[:len(l)//2] = [i*3 for i in range(len(l)//2)]
92.6 ms ± 2.34 ms per loop (mean ± std. dev. of 7 runs, 10 loops each)
In [7]: %timeit l[:len(l)//2] = (i*3 for i in range(len(l)//2))
118 ms ± 2.17 ms per loop (mean ± std. dev. of 7 runs, 10 loops each)
为什么在这些情况下列表理解会产生更好的性能?
答案 0 :(得分:4)
此答案仅涉及CPython实现。 使用列表推导速度更快,因为生成器还是会首先转换为列表。之所以这样做,是因为应该在 之前确定序列的长度,然后再替换数据,发电机无法告诉您其长度。
对于列表切片分配,此操作由可命名的list_ass_slice
处理。分配列表或元组有一种特殊情况的处理方式,here-他们可以使用PySequence_Fast
个操作。
This是PySequence_Fast
的3.7实现,您可以清楚地看到列表或元组的类型检查:
PyObject *
PySequence_Fast(PyObject *v, const char *m)
{
PyObject *it;
if (v == NULL) {
return null_error();
}
if (PyList_CheckExact(v) || PyTuple_CheckExact(v)) {
Py_INCREF(v);
return v;
}
it = PyObject_GetIter(v);
if (it == NULL) {
if (PyErr_ExceptionMatches(PyExc_TypeError))
PyErr_SetString(PyExc_TypeError, m);
return NULL;
}
v = PySequence_List(it);
Py_DECREF(it);
return v;
}
生成器表达式将通过此类型检查而失败,并继续执行后备代码,在该代码中将其转换为列表对象,以使the length can be predetermined。
在一般情况下,预定长度是理想的,以便有效地分配列表存储空间,并且to provide useful error messages具有扩展的分片分配:
>>> vals = (x for x in 'abc')
>>> L = [1,2,3]
>>> L[::2] = vals # attempt assigning 3 values into 2 positions
---------------------------------------------------------------------------
Traceback (most recent call last)
...
ValueError: attempt to assign sequence of size 3 to extended slice of size 2
>>> L # data unchanged
[1, 2, 3]
>>> list(vals) # generator was fully consumed
[]