Apache Airflow - BigQueryOperator:如何动态设置destination_dataset_table分区

时间:2017-10-23 14:20:51

标签: airflow apache-airflow

我需要一个BigQueryOperator任务,如下所示:我需要将查询结果保存到分区表中。但是,"month_start"需要从实际DAG execution_date派生。我找不到任何关于如何在我的DAG定义脚本中读取execution_date的文档或示例(在Python中)。期待在这里提供一些帮助。

FYR:我使用的是Airflow 1.8.2

 t1_invalid_geohash_by_traffic =  BigQueryOperator(
                                        task_id='invalid_geohash_by_traffic',
                                        bql='SQL/dangerous-area/InvalidGeohashByTraffic.sql',
                                        params = params,
                                        destination_dataset_table=
                                        'mydataset.mytable${}'.format(month_start),                                      write_disposition='WRITE_TRUNCATE',
                                        bigquery_conn_id=CONNECTION_ID,
                                        use_legacy_sql=False
                                    )

1 个答案:

答案 0 :(得分:0)