Python同时运行两个循环,其中一个是速率限制的,并且依赖于另一个循环的数据

时间:2018-02-13 02:20:29

标签: python multiprocessing rate-limiting simultaneous

我在python中有一个问题,我想同时运行两个循环。我觉得我需要这样做,因为第二个循环需要速率限制,但第一个循环真的不应该是速率限制的。此外,第二个循环从第一个循环获取输入。

我正在找一些像这样的东西:

for line in file:
do some stuff
list = []
list.append("an_item")

Rate limited:
for x in list:
do some stuff simultaneously

2 个答案:

答案 0 :(得分:0)

你需要做两件事:

  1. 将函数需要来自另一个的数据放在自己的进程上
  2. 实施两种流程之间的沟通方式(例如Queue
  3. 所有这些都必须归功于GIL

答案 1 :(得分:0)

有两种不同权衡的基本方法:在任务之间同步切换,在线程或子进程中运行。首先,一些常见的设置:

from queue import Queue # or Queue, if python 2
work = Queue()

def fast_task():
    """ Do the fast thing """
    if done:
        return None
    else:
        return result

def slow_task(arg):
    """ Do the slow thing """

RATE_LIMIT = 30 # seconds

现在,同步方法。它的优点是更简单,更容易调试,代价是速度稍慢。慢多少取决于您的任务细节。它是如何工作的,我们运行一个紧密的循环,每次都调用快速的工作,而只有在足够的时间过去的情况下才会运行缓慢的工作。如果快速作业不再生成工作且队列为空,我们就退出。

import time
last_call = 0

while True:
    next_job = fast_task()
    if next_job:
        work.put(next_job)
    elif work.empty():
        # nothing left to do
        break
    else:
        # fast task has done all its work - short sleep to slow the spin
        time.sleep(.1)

    now = time.time()
    if now - last_call > RATE_LIMIT:
        last_call = now
        slow_task(work.get())

如果您觉得这样做不够快,可以试试multiprocessing方法。您可以使用相同的结构来处理线程或进程,具体取决于您是从multiprocessing.dummy还是multiprocessing进行导入。我们使用multiprocessing.Queue代替queue.Queue进行沟通。

def do_the_fast_loop(work_queue):
    while True:
        next_job = fast_task()
        if next_job:
            work_queue.put(next_job)
        else:
            work_queue.put(None) # sentinel - tells slow process to quit
            break

def do_the_slow_loop(work_queue):
    next_call = time.time()
    while True:
        job = work_queue.get()
        if job is None: # sentinel seen - no more work to do
            break
        time.sleep(max(0, next_call - time.time()))
        next_call = time.time() + RATE_LIMIT
        slow_task(job)

if __name__ == '__main__':
    # from multiprocessing.dummy import Queue, Process # for threads
    from multiprocessing import Queue, Process # for processes
    work = Queue()
    fast = Process(target=fast_task, args=(work,))
    slow = Process(target=slow_task, args=(work,))
    fast.start()
    slow.start()
    fast.join()
    slow.join()

正如你所看到的,你可以实现更多的机器,但它会更快一些。同样,快多少取决于您的任务。我会尝试所有三种方法 - 同步,线程和多进程 - 并看看你最喜欢哪种方法。