在Airflow中,SubDagOperator的成功基于什么?来自Airflow文档:marking success on a SubDagOperator does not affect the state of the tasks within
。但是,SubDagOperator中的所有任务是否都必须成功才能使其在运行后记录成功?还是完全与其嵌套任务的状态分开?有没有办法改变其成功规则?
例如,在情况1中,SubDagOperator任务实例失败,而没有任何嵌套任务排队(例如SQLAlchemy错误)。在情况2中,嵌套的task1失败,但是task1.trigger_rule设置为ALL_DONE
,这将触发task2,而task2成功。
答案 0 :(得分:1)
subdag任务的成功或失败取决于内部dag的成功或失败(例如,放大时,运行上方有一个圆圈)。我相信这是所有最终任务都成功还是跳过了成功。