我正在运行dask.distributed群集。
我的任务包括链式计算,其中最后一步是使用Executor.map
方法对先前步骤创建的列表进行并行处理。事先不知道列表的长度,因为它是在计算过程中从中间结果生成的。
代码如下所示:
from distributed import Executor, progress
def process():
e = Executor('{address}:{port}'.format(address=config('SERVER_ADDR'),
port=config('SERVER_PORT')))
futures = []
gen_list1 = get_list_1()
gen_f1 = e.map(generate_1, gen_list1)
futures.append(gen_f1)
gen_list2 = get_list_2()
gen_f2 = e.map(generate_2, gen_list2)
futures.append(gen_f2)
m_list = e.submit(create_m_list) # m_list is created from gen_list1 and gen_list2
# some results of processing are stored in the database
# and create_m_list doesn't need additional arguments
futures.append(m_list)
m_result = e.map(process_m_list, m_list)
futures.append(m_result)
return futures
if __name__ == '__main__':
r = process()
progress(r)
但是,我收到错误TypeError: zip argument #1 must support iteration
:
File "F:/wl/under_development/database/jobs.py", line 366, in start_job
match_result = e.map(process_m_list, m_list)
File "C:\Anaconda\lib\site-packages\distributed\executor.py", line 672, in map
iterables = list(zip(*zip(*iterables)))
TypeError: zip argument #1 must support iteration
gen_list1
和gen_list2
是独立计算的,但m_list
是从gen_list1
和gen_list2
创建的,因此取决于它们。
我还尝试调用.result()
的{{1}}方法,但是,在m_list
和process
的计算之前,它已阻止了gen_list1
函数已经完成了。
我还尝试调用gen_list2
的异步方法._result
,但它产生了同样的错误" zip参数#1必须支持迭代"。使用m_list
(dask.delayed
)获得了相同的错误。
m_result = e.map(process_m_list, delayed(m_list))
的文档在这方面含糊不清,示例仅提及已存在的实际列表对象。但是,SO中的其他帖子以及Google都认为它应该是可能的。
这是我的Python发行版的版本字符串
dask.distributed
答案 0 :(得分:1)
问题的症结似乎在这里:
m_list = e.submit(create_m_list)
m_result = e.map(process_m_list, m_list)
你是正确的,你不能将功能映射到个人的未来。您需要传递map
一个序列。在不了解您的数据的情况下,Dask不知道要提交多少函数。致电.result()
关于未来将是一个很好的解决方案:
m_list = e.submit(create_m_list)
m_result = e.map(process_m_list, m_list.result())
我也试过调用m_list的.result()方法,但是,它已经阻止了函数进程,直到gen_list1和gen_list2的计算完成为止。
那是对的。没有任何附加信息,调度程序将更喜欢先前提交的计算。您可以先提交create_m_list
功能,然后提交额外的计算,然后等待create_m_list
结果,就可以解决此问题。
m_list = e.submit(create_m_list) # give this highest priority
f1 = e.map(generate_1, get_list_1())
f2 = e.map(generate_2, gen_list_2())
L = m_list.result() # block on m_list until done
m_result = e.map(process_m_list, L) # submit more tasks
return [f1, f2, m_result]