Celery中的@ task_postrun.connect信号并执行另一个任务导致一些有效的执行循环

时间:2018-01-20 22:08:14

标签: celery django-celery celerybeat

我需要遵循芹菜任务的工作流程。

当taskA成功完成时,我想执行taskB。

我知道有信号@task_success,但这只返回任务的结果,我需要访问先前任务参数的参数。所以我决定使用这样的代码:

@app.task
def taskA(arg):
    # not cool, but... https://github.com/celery/celery/issues/3797
    from shopify.tasks import taskA
    taskA(arg)


@task_postrun.connect
def fetch_taskA_success_handler(sender=None, **kwargs):
    from gcp.tasks import taskB
    if kwargs.get('state') == 'SUCCESS':
        taskB.apply_async((kwargs.get('args')[0], ))

问题是taskB似乎是在一些无限循环中执行很多次,而不是只执行一次。

1 个答案:

答案 0 :(得分:0)

这种方式可以正常工作:

@app.task
def taskA(arg):
    # not cool, but... https://github.com/celery/celery/issues/3797
    # otherwise it won't added in periodic tasks
    from shopify.tasks import taskA
    return taskA(arg)


@task_postrun.connect
def taskA_success_handler(sender=None, state=None, **kwargs):

    resource_name = kwargs.get('kwargs', {}).get('resource_name')

    if resource_name and state == 'SUCCESS':

        if sender.name == 'shopify.tasks.taskA':
            from gcp.tasks import taskB
            taskB.apply_async(kwargs={
                'resource_name': resource_name
            })

仅供参考:

celery==4.1.0
Django==2.0
django-celery-beat==1.1.0
django-celery-results==1.0.1
flower==0.9.2
amqp==2.2.2

Python 3.6