我在以下种类的芹菜工作流程中遇到了一些非常奇怪的行为:
workflow = group(
chain(task1.s(), task2.s()),
chain(task3.s(), task4.s()),
)
这是在django的背景下。
当我按如下方式调用工作流程时:
workflow.apply_async((n,))
...对于n的任何整数值,每个链中的第一个任务(task1
和task3
)将失败并出现类似以下的TypeError(取自celery events
):
args: [9, 8, 7, 5, 4, 3]
kwargs: {}
retries: 0
exception: TypeError('task1() takes exactly 1 argument (6 given)',)
state: FAILURE
第一个之后的参数始终是先前使用工作流调用的参数。所以,在这个例子中,我在这种情况下调用了workflow.apply_async((9,))
,其他数字是在之前的情况下传递的值。每次,传递给task1
和task3
的错误论据都是一样的。
我很想把它作为虫子报告给芹菜,但我还不确定这个错误在某种程度上不是我的。
我排除的事情:
workflow.apply_async
的论据。我已经单独构建并记录了我传递的元组,以确保这一点。apply_async
而不是元组并不是什么关系。我肯定会传递一个元组(即不可变的)。关于我的设置唯一有点不寻常的事情,虽然我无法看到它是如何连接的,task1
和task3
配置了不同的队列。
答案 0 :(得分:0)
当我使用celery task.chunks()
时,遇到了类似的问题我通过将项目列表包含在单个元组中来解决它。例如,
假设任务log_i()
是一个shared_task,基本上记录变量i
,我希望通过分块记录所有i
的列表 -
# log_i shared Task
@shared_task(bind=True)
def log_i(self, i):
logger.info(i)
return i
和
# some calling site
# ...
very_long_list = [{"i1": i, "i2": i+i, "i3": i**2} for i in range(1000)]
res = log_i.chunks(zip(very_long_list), 10)()
print(res.get())
# ...
请注意自己做某事 - 例如 -
# ...
res = log_i.chunks(very_long_list, 10)()
# ...
当列表中的项目不是可迭代的时候,将失败并且您正在讨论错误。
Zipping将项目按原样移动到新元组中,然后您可以将其捕获到log_i
任务中的单个参数中。