python多处理apply_async只使用一个进程

时间:2012-09-18 19:16:40

标签: python multiprocessing

我有一个脚本,包括从列表中打开文件,然后对该文件中的文本执行某些操作。我正在使用python多处理和Pool来尝试并行化这个操作。脚本的抽象如下:

import os
from multiprocessing import Pool

results = []
def testFunc(files):
    for file in files:
        print "Working in Process #%d" % (os.getpid())
        #This is just an illustration of some logic. This is not what I'm actually doing.
        for line in file:
            if 'dog' in line:
                results.append(line)

if __name__=="__main__":
    p = Pool(processes=2)
    files = ['/path/to/file1.txt', '/path/to/file2.txt']
    results = p.apply_async(testFunc, args = (files,))
    results2 = results.get()

当我运行它时,每次迭代的进程id的打印输出都是相同的。基本上我正在尝试做的是获取输入列表的每个元素并将其分支到一个单独的进程,但似乎一个进程正在完成所有工作。

1 个答案:

答案 0 :(得分:28)

  • apply_async将一项任务提供给游泳池。你需要打电话 apply_async多次使用更多处理器。
  • 不要让两个进程都尝试写入同一个列表, results。由于池工人是独立的流程,两者 不会写入同一个列表。解决此问题的一种方法是使用输出队列。您可以自己设置,或使用apply_async的回调为您设置队列。函数完成后,apply_async将调用回调函数。
  • 您可以使用map_async代替apply_async,但之后就可以了 得到一个列表列表,然后你必须展平。

所以,也许尝试改为:

import os
import multiprocessing as mp

results = []   

def testFunc(file):
    result = []
    print "Working in Process #%d" % (os.getpid())
    # This is just an illustration of some logic. This is not what I'm
    # actually doing.
    with open(file, 'r') as f:
        for line in f:
            if 'dog' in line:
                result.append(line)
    return result


def collect_results(result):
    results.extend(result)

if __name__ == "__main__":
    p = mp.Pool(processes=2)
    files = ['/path/to/file1.txt', '/path/to/file2.txt']
    for f in files:
        p.apply_async(testFunc, args=(f, ), callback=collect_results)
    p.close()
    p.join()
    print(results)