我找到以下链接:
https://www.linkedin.com/pulse/airflow-lesson-1-triggerdagrunoperator-siddharth-anand
确实解释了如何使用TriggerDagRunOperator
执行单独的Airflow dag。该文档使用Airflow自己的示例dags,但我很难理解这些,因为他们没有使用任何传感器。
有人可以解释如何使用TriggerDagRunOperator
和SqlSensor
开始单独的dag吗?当我的SQL Server作业任务完成时,我正在尝试启动单独的DAG。我知道如何使用SqlSensor
检查SQL Server作业的状态,但我不知道如何将结果附加到TriggerDagRunOperator
以启动单独的DAG。
我不想使用Airflow CLI或在一个DAG中执行这两项任务。基本上,我希望这只是触发dag。
以下是我当前的代码,它缺少关键的conditionally_trigger
# File Name: check-when-db1-sql-task-is-done
from airflow import DAG
from airflow.operators import TriggerDagRunOperator
from airflow.operators import SqlSensor
from datetime import datetime
default_args = {
'owner': 'airflow',
'retry_delay': timedelta(minutes=5),
}
dag = DAG('check-when-db1-sql-task-is-done',
description='Check-when-DB1-SQL-task-is-done',
default_args=default_args,
schedule_interval='@once',
start_date=datetime.now(),
)
# returns-0-or-1-based-on-job-task-status
sqlsensor = SqlSensor (
task_id='sql-sensor',
poke_interval=30,
timeout=3200,
sql="""select last_run_outcome from msdb.dbo.sysjobsteps where job_id = '249A5A5D-6AFC-4D6B-8CB1-27C16724A450' and step_id = '1' and last_run_date = (select convert(varchar(24),getdate(),112)); """,
mssql_conn_id='db1',
dag=dag,
)
# dag-to-start
trigger = TriggerDagRunOperator (
task_id='start-ssh-job',
trigger_dag_id="qa-knime-ssh-task",
python_callable=conditionally_trigger,
params={'condition_param': True,
'message': 'Hello World'},
dag=dag)
答案 0 :(得分:3)
我的理解是TriggerDagRunOperator
用于何时使用python函数来确定是否触发SubDag。该函数在代码和示例中称为conditionally_trigger
。
在您的情况下,您使用传感器来控制流量,而不需要传递函数。您可以使用SubDagOperator
代替TriggerDagRunOperator
,或者将简单的始终为真的函数作为python_callable
传递:
...
python_callable=lambda(context, dag_run_obj):dag_run_obj,
...