如何在Airflow中成功完成另一个AWS-glue任务的基础上,在气流中启动python运算符boto3 AWS-glue任务?

时间:2019-05-28 01:03:52

标签: python airflow aws-glue

我的Ariflow脚本有多个任务,这些任务使用python运算符使用boto3启动粘合作业。即使流程取决于Ariflow中的每个任务。连续的任务不会等到上一个任务成功完成。

下一个胶水作业任务在调用前一个胶水作业任务后立即被调用。最后,即使Airflow看起来成功完成了,粘合作业仍在运行几分钟。

    from airflow import DAG
    from airflow.operators.python_operator import PythonOperator
    from datetime import datetime, timedelta
    from airflow.operators.sensors import TimeDeltaSensor
    import boto3
    import json

    default_args = {
    'owner': 'SAM',
    'start_date': datetime(2019, 5, 27)
     }


    glue_client = boto3.client('glue', region_name='us-east-1')

    def run_customer_job():
        glue_client.start_job_run(JobName='customer')  


    def run_product_job():
        glue_client.start_job_run(JobName='product')



    with DAG('dataload', default_args=default_args, schedule_interval="0 15 * * *") as dag:
        task1 = PythonOperator(task_id='task1',                                              
                               python_callable=run_customer_job)
        task2 = PythonOperator(task_id='task2',                                                          
                               python_callable=run_product_job)



    task1 >> task2 

2 个答案:

答案 0 :(得分:0)

我将在调用start_job_run之后创建一个状态循环,以使您的任务在完成粘胶作业之前不会完成。

快速简单的示例(您将需要处理失败的任务等)

job = glue_client.start_job_run(JobName='customer')

while True:
  status = glue.get_job_run(JobName=job['Name'], RunId=job['JobRunId'])
  if status['JobRun']['JobRunState'] == 'SUCCEEDED':
    break

  time.sleep(10)

答案 1 :(得分:0)