我一直在使用kubectl将Airflow工作流程手动上传到kubernetes(/ usr / local / airflow / dags)。是否可以不使用kubectl来执行此操作?通过使用python脚本?或者是其他东西?如果可以,您是否可以共享您的资源?还是您的python脚本?谢谢,谢谢
答案 0 :(得分:1)
这完全取决于您的设置。例如。我们使用AWS,因此DAG每5分钟从S3存储桶路径同步一次。我们只是在S3中放了一些东西。我看到一些Kubernetes设置使用一种由git存储库定义的共享卷,这也许也可以工作。 Airflow本身(Web服务器,工作人员或调度程序)不提供任何钩子可上传到DAG目录。