可能是重复的,但我找不到任何东西。
我有一个非常长的迭代器(10000个项目),我需要一次迭代〜500个项目。因此,如果我的迭代器是range(10000)
,它将看起来像这样:
Iteration #1: 0, 1, 2, ... 497, 498, 499
Iteration #2: 1, 2, 3, ... 498, 499, 500
Iteration #3: 2, 3, 4, ... 499, 500, 501
Iteration #4: 3, 4, 5, ... 500, 501, 502
...
Iteration #9500: 9499, 9500, 9501 ... 9996, 9997, 9998
Iteration #9501: 9500, 9501, 9502 ... 9997, 9998, 9999
,依此类推。有这种方法:
def nwise_slice(lst, n):
for i in range(len(lst) - n + 1):
yield lst[i:i + n]
但是,这不适用于惰性迭代器。我尝试使用迭代器创建解决方案,并改编自itertools
pairwise
和consume
食谱(请参阅here)来创建此解决方案:
import itertools
def nwise_iter(lst, n):
iters = itertools.tee(lst, n)
for idx, itr in enumerate(iters):
next(itertools.islice(itr, idx, idx), None)
for group in zip(*iters):
yield group
的功能相同(尽管产生tuple
而不是list
,这对我来说无关紧要)。我也相信它不会创建很多不必要的切片。此解决方案适用于不可切片的迭代器,例如文件(我打算使用它)。但是,itertools
解决方案的速度慢了2倍:
In [4]: %timeit list(nwise_slice(list(range(10000)), 500))
46.9 ms ± 729 µs per loop (mean ± std. dev. of 7 runs, 10 loops each)
In [5]: %timeit list(nwise_iter(list(range(10000)), 500))
102 ms ± 3.95 ms per loop (mean ± std. dev. of 7 runs, 10 loops each)
我不想为了使用slice
方法而将所有测试数据都加载到内存中。有没有更有效的方法来实现这一目标?
答案 0 :(得分:4)
from collections import deque
def nwise_slice(it, n):
deq = deque((), n)
for x in it:
deq.append(x)
if len(deq)==n: yield deq
my_range = range(8)
for sub in nwise_slice(my_range, 5):
print(sub)
# =>
# deque([0, 1, 2, 3, 4], maxlen=5)
# deque([1, 2, 3, 4, 5], maxlen=5)
# deque([2, 3, 4, 5, 6], maxlen=5)
# deque([3, 4, 5, 6, 7], maxlen=5)