气流:如何重新运行依赖的DAG

时间:2020-02-21 16:51:57

标签: hadoop bigdata airflow airflow-operator

假设我具有以下DAG依赖项:

        /> DAG B -->....
       /
      /
DAG A ---> DAG C -->...
      \
       \
        \> DAG D -->...

这些DAG每天运行,DAG B,C,D分别消耗DAG A的输出。

如果DAG A失败(例如,Spark作业有错误,并且我们希望在修复后重新执行它),如何确保我们也重新运行DAG B,C,D等,以便它们现在与固定的DAG A输出?可以自动完成吗?

2 个答案:

答案 0 :(得分:1)

您可以有一个单独的主DAG controller_dag ),然后使用 TriggerDagRunOperator 来触发不同的DAG。

使用 TriggerDagRunOperator 的任务之间的依赖关系可以通过以下方式设置:

dag_a >> [dag_b, dag_c, dag_d] >> ...

答案 1 :(得分:0)