我的Airflow有一个任务,该任务使用BashOperator在我们的服务器上运行pySpark脚本。我从UI杀死了Airflow任务,该任务本身也可以被杀死。但是它的BashOperator创建的子进程尚未被杀死,并且仍在我们的服务器上运行。
我认为可能有些问题,例如“停止”之类的信号未从我的Airflow任务正确传输到pySpark进程。
`BashOperator(
task_id=task_name,
bash_command=bash_command,
env={
'PATH': '{{ PATH }}',
'PYSPARK_PYTHON': '{{ PYSPARK_PYTHON_PATH }}',
'PYTHONPATH': '{{ HOME }}/python-lib'
},
dag=dag
)`
您能帮我找到解决这个问题的方法吗?