将functools.lru_cache与multiprocessing.Pool

时间:2017-04-19 12:37:36

标签: python caching recursion multiprocessing

我有一个相当复杂的递归函数,有很多参数(Obara-Saika-Scheme,如果有人想知道),我想更有效地推算。 作为第一步,我应用了@functools.lru_cache。作为第二步,我现在想要使用multiprocessing.Pool来异步评估一长串输入参数。

调整second example from the functools Python docs并添加我有的工作人员:

from multiprocessing import Pool
from functools import lru_cache

@lru_cache(maxsize=10)
def fibonacci(n):
    print('calculating fibonacci(%i)' %n)
    if n < 2:
        return n
    return fibonacci(n-1)+fibonacci(n-2)

with Pool(processes=4) as pool:
    for i in range(10):
        res = pool.apply_async(fibonacci, (i,))
        print(res.get())

print(fibonacci.cache_info())

问题1

如何通过不同的工作人员共享缓存。另一个问题(How to share a cache?)问了类似的事情,但我无法让它发挥作用。以下是我对此的两种失败方法。

使用multiprocessing.Pool

from multiprocessing import Pool
from functools import lru_cache
import time

@lru_cache(maxsize=10)
def fibonacci(n):
    print('calculating fibonacci(%i)' %n)   # log whether the function gets called
    if n < 2:
        return n
    return fibonacci(n-1)+fibonacci(n-2)

res = []
with Pool(processes=4) as pool:

    # submit first task
    res.append(pool.apply_async(fibonacci, (5,)).get())

    # give fibonacci() some time to fill its cache
    time.sleep(1)

    # submit second task
    res.append(pool.apply_async(fibonacci, (3,)).get())

print(res)

使用concurrent.futures

import concurrent.futures
from functools import lru_cache

import time

@lru_cache(maxsize=10)
def fibonacci(n):
    print('calculating fibonacci(%i)' %n)   # log whether the function gets called
    if n < 2:
        return n
    return fibonacci(n-1)+fibonacci(n-2)

with concurrent.futures.ProcessPoolExecutor(max_workers=4) as executor:

    @lru_cache(maxsize=10)
    def fib_async(n):
        print('calculating fib_async(%i)' %n)
        if n < 2:
            return n
        return fibonacci(n-1) + fibonacci(n-2)

    res = []

    # submit first task
    res.append(executor.submit(fib_async, 5))

    # give fib_async() some time to fill its cache
    time.sleep(1)

    # submit second task
    res.append(executor.submit(fib_async, 3))


res = [e.result() for e in res]

print(res)

两者都产生基本相同的输出,表明第二个任务重新计算fibonacci(2),尽管第一个任务已经必须计算它。如何共享缓存?

这应该可以加快速度,但是如果重复调用的时间非常严重,仍会出现问题:worker1当前评估的调用尚未缓存,而worker2可能会开始评估相同的事情。这让我想到:

问题2

计算Fibonacci数在其递归中是相当线性的,即只有一个参数递减。我的功能更复杂,我可以使用的东西不仅可以管理已经计算的输入参数,还可以跟踪当前正在计算的内容。

要清楚:我想对递归函数进行许多并行调用,这将产生对递归函数的许多新调用。

一个棘手的问题可能是避免将一个调用直接分配给一个worker,因为当递归深度超过worker数时会导致死锁。

我可以使用这样的东西吗?或者我需要自己构建一些东西?我对multiprocessing.managersconcurrent.futures.ProcessPoolExecutor进行了讨论,这可能会有所帮助。但我可以使用一些帮助来开始。

1 个答案:

答案 0 :(得分:1)

由于所需的功能受CPU限制,因此您可以为该任务选择multiprocessing

函数@lru_cache使用内存中的缓存。每个python进程都包含其自己的内存块,因此您将生成2个独立的缓存(位于不同的内存空间)。

如果要同步那些缓存,则需要使用某种内存同步机制,例如锁等。默认的lru_cache方法不会进行多重处理,但是您可以自己实现一个容易。

只需使用共享字典(here is a good example)来保存缓存的项目,然后使用锁将对该字典的访问权包装起来(此处为python wiki page)。这样,您可以在保持访问安全的同时跨进程共享命令。