我正在尝试使用我的Dag将我的存储库打包在一个Zip文件中,就像它指出here in the documentation一样。 所以我遵循了文档中的惯例,即将dag保存在zip的根目录中,子目录被气流视为包。
我的zip文件包含以下内容:
$ unzip -l $AIRFLOW_HOME/dags/test_with_zip.zip
Archive: /home/arjunc/Tutorials/airflow/dags/test_with_zip.zip
Length Date Time Name
--------- ---------- ----- ----
0 2018-03-29 17:46 helloworld/
189 2018-03-29 17:22 helloworld/hello.py
0 2018-03-29 17:18 helloworld/__init__.py
461 2018-03-29 17:24 test_with_zip_dag.py
--------- -------
650 4 files
其中test_with_zip_dag.py
是根目录中具有Dag定义的文件,如下所示:
from datetime import datetime
from airflow import DAG
from airflow.operators.python_operator import PythonOperator
from helloworld.hello import HelloWorld
def run():
return HelloWorld().run()
dag = DAG('test_with_zip', description='Test Dependencies With Zipping',
schedule_interval='0 12 * * *',
start_date=datetime(2017, 3, 20), catchup=False)
hello_operator = PythonOperator(task_id='hello_task', python_callable=run, dag=dag)
我已将此拉链放在默认的dags目录$ AIRFLOW_HOME / dags中,但我的dag无法识别!
我做错了什么?
当我重新启动网络服务器时,任务test_with_zip
已弹出,但它无法运行,因为调度程序似乎无法识别它。我得到以下错误(来自网络界面):
此DAG似乎仅在本地存在。主调度程序似乎并不知道它的存在。
答案 0 :(得分:3)
您正在使用哪个版本的气流? Airflow 1.8.1在从zip加载das时遇到问题。此问题已在1.8.3中修复。 https://issues.apache.org/jira/browse/AIRFLOW-1357
我建议您更新到最新版本的Airflow,即1.9.0
答案 1 :(得分:0)
您只提到重启网络服务器。
您还需要使用airflow scheduler
启动调度程序。
另外,请参阅此处查看的更多步骤:Airflow 1.9.0 is queuing but not launching tasks
答案 2 :(得分:0)
DAG python文件必须位于zip包的根目录中。参见https://airflow.apache.org/docs/stable/concepts.html#packaged-dags