气流DAG的功能?

时间:2018-10-29 21:11:45

标签: python airflow airflow-scheduler

我正在$AIRFLOW_HOME/dags工作。我创建了以下文件:

- common
  |- __init__.py   # empty
  |- common.py     # common code
- foo_v1.py        # dag instanciation

common.py中:

default_args = ...

def create_dag(project, version):
  dag_id = project + '_' + version
  dag = DAG(dag_id, default_args=default_args, schedule_interval='*/10 * * * *', catchup=False)
  print('creating DAG ' + dag_id)

  t1 = BashOperator(
    task_id='print_date',
    bash_command='date',
    dag=dag)

  t2 = BashOperator(
    task_id='sleep',
    bash_command='sleep 5',
    retries=3,
    dag=dag)

  t2.set_upstream(t1)

foo_v1.py中:

 from common.common import create_dag

 create_dag('foo', 'v1')

使用python测试脚本时,看起来不错:

 $ python foo_v1.py
 [2018-10-29 17:08:37,016] {__init__.py:57} INFO - Using executor SequentialExecutor
 creating DAG pgrandjean_pgrandjean_spark2.1.0_hadoop2.6.0

然后我在本地启动Web服务器和调度程序。我的问题是我没有看到ID为foo_v1的DAG。没有创建pyc文件。做错了什么?为什么foo_v1.py中的代码没有被执行?

3 个答案:

答案 0 :(得分:1)

您需要将dag分配给模块中的导出变量。如果dag不在模块__dict__中,那么气流的DagBag处理器将无法接住它。

在此处查看源代码:https://github.com/apache/incubator-airflow/blob/master/airflow/models.py#L428

答案 1 :(得分:1)

要由Airflow查找,create_dag()返回的DAG对象必须位于foo_v1.py模块的全局命名空间中。将DAG放置在全局名称空间中的一种方法就是将其分配给模块级变量:

from common.common import create_dag

dag = create_dag('foo', 'v1')

另一种方法是使用globals()更新全局名称空间:

globals()['foo_v1'] = create_dag('foo', 'v1')

后面的命令看起来有些过分,但这对creating multiple DAGs dynamically很有用。例如,在for循环中:

for i in range(10):
    globals()[f'foo_v{i}'] = create_dag('foo', f'v{i}')

侧面说明:放置在*.py中的任何$AIRFLOW_HOME/dags文件(甚至在子目录中,例如common)也将由Airflow解析。 。如果您不希望这样做,可以使用packaged DAGs

答案 2 :(得分:0)

正如 here 中所述,您必须在创建 dag 后返回它!

default_args = ...

def create_dag(project, version):
  dag_id = project + '_' + version
  dag = DAG(dag_id, default_args=default_args, schedule_interval='*/10 * * * *', catchup=False)
  print('creating DAG ' + dag_id)

  t1 = BashOperator(
    task_id='print_date',
    bash_command='date',
    dag=dag)

  t2 = BashOperator(
    task_id='sleep',
    bash_command='sleep 5',
    retries=3,
    dag=dag)

  t2.set_upstream(t1)

  return dag # Add this line to your code!