无法从SparkSubmitOperator执行'spark-submit'

时间:2020-11-04 12:58:11

标签: docker apache-spark pyspark docker-compose airflow

让生活更轻松

this项目非常适合通过Airflow或Jupyter笔记本使用Docker在pySpark中运行作业。不幸的是,气流部分失败。

我猜这是因为SparkSubmitOperator找不到火花二进制文件,但是在设置中,一切看起来都很好。

有一个开放的issue,其中包含详细信息。我希望我们可以一起解决它,因为我是Docker-Compose的新手,可能会错过一些相关的观点。

感谢您的支持。

0 个答案:

没有答案