如何获取气流dag的JobID?

时间:2017-04-11 12:30:34

标签: python pyspark airflow apache-airflow

当我们在Airflow UI上执行dagrun时,在" Graph View"我们得到每个工作运行的详细信息。

JobID类似于" scheduled__2017-04-11T10:47:00"

我需要这个JobID用于跟踪和日志创建,我在其中维护每个任务/ dagrun所花费的时间。

所以我的问题是如何在同一个正在运行的dag中获取JobID

谢谢,阿赫亚

1 个答案:

答案 0 :(得分:9)

此值实际上称为run_id,可以通过上下文或宏访问。

在python运算符中,这是通过上下文访问的,在bash运算符中,可以通过bash_command字段上的jinja模板访问它。

有关宏中可用内容的更多信息:

https://airflow.incubator.apache.org/code.html#macros

关于jinja的更多信息:

https://airflow.incubator.apache.org/concepts.html#jinja-templating

from airflow.models import DAG
from datetime import datetime
from airflow.operators.bash_operator import BashOperator
from airflow.operators.python_operator import PythonOperator


dag = DAG(
    dag_id='run_id',
    schedule_interval=None,
    start_date=datetime(2017, 2, 26)
)

def my_func(**kwargs):
    context = kwargs
    print(context['dag_run'].run_id)

t1 = PythonOperator(
    task_id='python_run_id',
    python_callable=my_func,
    provide_context=True,
    dag=dag
    )

t2 = BashOperator(
    task_id='bash_run_id',
    bash_command='echo {{run_id}}',
    dag=dag)

t1.set_downstream(t2)

使用此dag作为示例,并检查每个运算符的日志,您应该看到日志中打印了run_id