Python:多处理中单个锁的死锁

时间:2016-09-22 14:54:14

标签: python thread-safety multiprocessing mutex python-3.4

我使用pyserial通过多处理获取数据。我共享数据的方式非常简单。所以:

我班上有成员对象:

self.mpManager = mp.Manager()
self.shared_return_list = self.mpManager.list()
self.shared_result_lock = mp.Lock()

我用这种方式调用我的多处理过程:

process = mp.Process(target=do_my_stuff, 
args=(self.shared_stopped, self.shared_return_list, self.shared_result_lock)
)

其中do_my_stuff是一个全局函数。

现在在过程函数中填充列表的部分:

if len(acqBuffer) > acquisitionSpecs["LengthToPass"]:
    shared_lock.acquire()
    shared_return_list.extend(acqBuffer)
    del acqBuffer[:]
    shared_lock.release()

将本地线程使用的部分是:

while len(self.acqBuffer) <= 0 and (not self.stopped):
    #copy list from shared buffer and empty it
    self.shared_result_lock.acquire()
    self.acqBuffer.extend(self.shared_return_list)
    del self.shared_return_list[:]
    self.shared_result_lock.release()

问题

虽然只有1个锁定,但我的程序偶尔会以某种方式陷入僵局!等了一段时间后,我的程序冻结了。在锁之前和之后添加打印件后,我发现它在锁定时冻结并以某种方式陷入死锁。

如果我使用递归锁定RLock(),它可以正常工作。不确定我是否应该这样做。

这怎么可能?难道我做错了什么?我希望如果两个进程都试图获取锁,它们应该阻塞,直到另一个进程解锁。

2 个答案:

答案 0 :(得分:1)

如果没有SSCCE,很难知道代码中是否还有其他内容。

一种可能性是在获取锁定后抛出异常。尝试在try / finally子句中包装每个锁定的部分。例如

try:
    shared_lock.acquire()
    shared_return_list.extend(acqBuffer)
    del acqBuffer[:]
finally:
    shared_lock.release()

try:
    self.shared_result_lock.acquire()
    self.acqBuffer.extend(self.shared_return_list)
    del self.shared_return_list[:]
finally:
    self.shared_result_lock.release()

您甚至可以添加例外条款,并记录引发的任何异常,如果这是问题所在。

答案 1 :(得分:0)

事实证明这不是一个僵局。我的错!问题是从设备获取的数据有时非常庞大,无法通过

复制数据
shared_return_list.extend(acqBuffer)
del acqBuffer[:]

程序冻结需要很长时间。我通过以块为单位移动数据并限制从设备中提取的数据量来解决这个问题。