我想通过使用 DataflowPythonOperator 将Airflow的执行日期用作我的Dataflow作业的参数。具体来说,这项工作是从Google BigQuery读取数据,因此我需要在查询中提供execute_date。
我尝试了op_kwarg和Provide_context,但它似乎仅适用于PythonOperator。
看起来像这样。在DAG中:
run_dataflow = DataFlowPythonOperator(
task_id='run_dataflow',
py_file="/path/to/main.py",
options=dataflowoptions,
params = execution_date
在main.py中:
query = ('select * from `project_id.dataset.table`'
'where date = {}')
query = query.format(params)