调用可迭代(?)函数和回调函数之间apply_async
的流程如何工作?
设置:我正在读取2000文件目录中的所有文件的一些行,有些行有数百万行,有些行只有几行。提取一些标题/格式/日期数据以对每个文件进行特征化。这是在16 CPU机器上完成的,因此多处理它是有意义的。
目前,预期结果将被发送到列表(ahlala
),以便我可以将其打印出来;之后,这将被写入* .csv。这是我的代码的简化版本,最初基于this非常有用的帖子。
import multiprocessing as mp
def dirwalker(directory):
ahlala = []
# X() reads files and grabs lines, calls helper function to calculate
# info, and returns stuff to the callback function
def X(f):
fileinfo = Z(arr_of_lines)
return fileinfo
# Y() reads other types of files and does the same thing
def Y(f):
fileinfo = Z(arr_of_lines)
return fileinfo
# results() is the callback function
def results(r):
ahlala.extend(r) # or .append, haven't yet decided
# helper function
def Z(arr):
return fileinfo # to X() or Y()!
for _,_,files in os.walk(directory):
pool = mp.Pool(mp.cpu_count()
for f in files:
if (filetype(f) == filetypeX):
pool.apply_async(X, args=(f,), callback=results)
elif (filetype(f) == filetypeY):
pool.apply_async(Y, args=(f,), callback=results)
pool.close(); pool.join()
return ahlala
注意,如果我将帮助函数Z()
全部放入X()
,Y()
或results()
,则代码可以正常工作,但这是重复的还是可能比可能慢?我知道每个函数调用都会调用回调函数,但是何时调用回调函数?它是在pool.apply_async()
之后......完成流程的所有工作吗?如果在第一个函数pool.apply_async()
的范围(?)内调用这些辅助函数(在这种情况下,X()
),它不应该更快吗?如果没有,我应该将帮助函数放在results()
?
其他相关的想法:守护进程是否为什么没有出现?我也很困惑如何排队,如果这是问题。 This seems like a place to start learning it,但是在使用apply_async
时,或者只是在明显无效的时间内,可以安全地忽略排队吗?
答案 0 :(得分:5)
你在这里询问了很多不同的东西,所以我尽量尽力报道:
当工作进程返回结果时,传递给callback
的函数将在主进程(而不是worker)中执行。它在Pool
对象内部创建的线程中执行。该线程使用result_queue
中的对象,该对象用于从所有工作进程获取结果。线程将结果从队列中拉出后,它将执行callback
。当您的回调正在执行时,不能从队列中提取其他结果,因此回调快速完成非常重要。在您的示例中,只要您通过X
拨打的Y
或apply_async
之一完成,结果将由工作进程放入result_queue
,然后结果处理线程将结果从result_queue
拉出,您的callback
将被执行。
其次,我怀疑你没有看到你的示例代码发生任何事情的原因是因为所有的工作者函数调用都失败了。如果worker函数失败,则永远不会执行callback
。除非您尝试从apply_async
调用返回的AsyncResult
对象中获取结果,否则将无法报告失败。但是,由于您未保存任何这些对象,因此您永远不会知道发生的故障。如果我是你,我会在您进行测试时尝试使用pool.apply
,以便您在发生错误时立即看到错误。
工作者可能失败的原因(至少在您提供的示例代码中)是因为X
和Y
被定义为另一个函数内的函数。 multiprocessing
通过在主进程中对它们进行pickle来将函数和对象传递给工作进程,并在工作进程中对它们进行unpickling。在其他函数中定义的函数不可选,这意味着multiprocessing
无法在工作进程中成功取消它们。要解决此问题,请在模块的顶层定义两个函数,而不是嵌入dirwalker
函数。
您绝对应该继续从Z
和X
致电Y
,而不是results
。这样,Z
可以在所有工作进程中同时运行,而不必在主进程中一次运行一个调用。请记住,您的callback
功能应该尽可能快,因此您不会阻止处理结果。在那里执行Z
会减慢速度。
这里有一些简单的示例代码,与您正在执行的操作类似,希望能让您了解代码的外观:
import multiprocessing as mp
import os
# X() reads files and grabs lines, calls helper function to calculate
# info, and returns stuff to the callback function
def X(f):
fileinfo = Z(f)
return fileinfo
# Y() reads other types of files and does the same thing
def Y(f):
fileinfo = Z(f)
return fileinfo
# helper function
def Z(arr):
return arr + "zzz"
def dirwalker(directory):
ahlala = []
# results() is the callback function
def results(r):
ahlala.append(r) # or .append, haven't yet decided
for _,_,files in os.walk(directory):
pool = mp.Pool(mp.cpu_count())
for f in files:
if len(f) > 5: # Just an arbitrary thing to split up the list with
pool.apply_async(X, args=(f,), callback=results) # ,error_callback=handle_error # In Python 3, there's an error_callback you can use to handle errors. It's not available in Python 2.7 though :(
else:
pool.apply_async(Y, args=(f,), callback=results)
pool.close()
pool.join()
return ahlala
if __name__ == "__main__":
print(dirwalker("/usr/bin"))
输出:
['ftpzzz', 'findhyphzzz', 'gcc-nm-4.8zzz', 'google-chromezzz' ... # lots more here ]
修改强>
您可以使用multiprocessing.Manager
类创建在父进程和子进程之间共享的dict对象:
pool = mp.Pool(mp.cpu_count())
m = multiprocessing.Manager()
helper_dict = m.dict()
for f in files:
if len(f) > 5:
pool.apply_async(X, args=(f, helper_dict), callback=results)
else:
pool.apply_async(Y, args=(f, helper_dict), callback=results)
然后让X
和Y
采用名为helper_dict
的第二个参数(或您想要的任何名称),然后全部设置。
需要注意的是,这通过创建包含普通dict的服务器进程来工作,并且所有其他进程通过Proxy对象与该dict进行通信。因此,每当您阅读或写入字典时,您都在进行IPC。这使得它比真正的字典慢很多。