在流程之间共享不断变化的字典

时间:2017-08-30 11:29:17

标签: python multiprocessing

问题陈述

我面临多处理问题。多处理堆栈溢出问题的很大一部分没有我的情况复杂,也没有回答它。有些人用this问题投票可能重复,但我的情况有所不同,在我的情况下,共享DICT在进程工作之间被修改:

我有一个程序遵循这个简化的生命周期:

A. Initialize DATA dict
B. Initialize 4 subprocess workers
C. Execute code in each workers (worker massively read DATA dict)
D. Wait workers job is done
E. Modify DATA dict content
F. Go to C

性能是问题的一个非常重要的方面。我尝试了许多正面和负面的解决方案:

简单的全局字典(不工作)

在步骤BDICT变量分叉到子流程环境中。但是在步骤E之后,子流程无法看到变化。

使用multiprocessing.Manager dict

在步骤A,dict是使用multiprocessing.Manager创建的(请参阅“服务器进程”here)。

  • 优点:易于使用
  • 缺点multiprocessing.Manager使用序列化层(我不太了解它,但它能够与网络上的进程一起使用),这对性能不利。

使用多个multiprocessing.Value和multiprocessing.Array而不是dict

multiprocessing.Valuemultiprocessing.Array允许使用共享内存。我尝试用几个multiprocessing.Valuemultiprocessing.Array代替我的dict:

用dict:

manager = multiprocessing.Manager()
dict = manager.dict()
dict['positions'] = [42, 165]
dict['on_position_42'] = 1555897
dict['on_position_165'] = 1548792

multiprocessing.Valuemultiprocessing.Array代替dict:

positions = multiprocessing.Array('i', [42, 165])
on_position_42 = multiprocessing.Value('i', 1555897)
on_position_165 = multiprocessing.Value('i', 1548792)

但是在步骤E我需要创建新的multiprocessing.Valuemultiprocessing.Array,例如:

positions.value = [42, 165, 322]
# create new multiprocessing.Value for 322
on_position_322 = multiprocessing.Value('i', 2258777)

然后在步骤C,工作人员将不知道on_position_322。如果我尝试通过管道将multiprocessing.Valuemultiprocessing.Array发送到子进程,则会导致“只能通过继承在进程之间共享同步对象”错误。

  • 优点:效果
  • 缺点:如何“通知”子流程有关新multiprocessing.Valuemultiprocessing.Array的存在?

使用内存数据库,如memcache或redis

我知道这是可能的,但我必须将内存数据库与multiprocessing.Manager dict进行对比。

  • 优点:务实且有效
  • 缺点:表演?

问题结论

在此生命周期中是否存在使用multiprocessing.Valuemultiprocessing.Array的方法,考虑创建新的multiprocessing.Valuemultiprocessing.Array

或者更一般地说,考虑到这个生命周期,最有效的策略是什么?

注意:我之前尝试过其他策略,其中步骤F是“转到B”(在每个周期重新创建新工作人员)。但工人的分岔环境太长了:最大的是DICT最长的是叉子。

1 个答案:

答案 0 :(得分:1)

由于您只是从字典中读取并在主进程中更新它,因此您可以使用JoinableQueue传递字典并等待工作人员完成。 E.g。

from multiprocessing import Process, JoinableQueue
import time

class Worker(Process):
    def __init__(self, queue):
        super(Worker, self).__init__()
        self.queue = queue

    def run(self):
        for item in iter(self.queue.get, None):
            print item
            time.sleep(2)
            print 'done'
            self.queue.task_done()
        self.queue.task_done()

if __name__ == '__main__':
    request_queue = JoinableQueue()
    num_workers = 4
    workers = []
    d = {}  # A

    for _ in range(num_workers): 
        p = Worker(request_queue) # B
        workers.append(p)
        p.start()


    for i in range(5): # F
        for _ in range(num_workers):
            request_queue.put(d) # C
        request_queue.join()  # D
        d[i] = i  # E

    for w in workers:
        w.terminate()
        w.join()

输出:

{}
{}
{}
{}
done
done
done
done
{0: 0}
{0: 0}
{0: 0}
{0: 0}
done
done
done
done
{0: 0, 1: 1}
{0: 0, 1: 1}
{0: 0, 1: 1}
{0: 0, 1: 1}
done
done
done
done
{0: 0, 1: 1, 2: 2}
{0: 0, 1: 1, 2: 2}
{0: 0, 1: 1, 2: 2}
{0: 0, 1: 1, 2: 2}
done
done
done
done
{0: 0, 1: 1, 2: 2, 3: 3}
{0: 0, 1: 1, 2: 2, 3: 3}
{0: 0, 1: 1, 2: 2, 3: 3}
{0: 0, 1: 1, 2: 2, 3: 3}
done
done
done
done