标签: docker apache-spark pyspark docker-compose airflow
让生活更轻松
this项目非常适合通过Airflow或Jupyter笔记本使用Docker在pySpark中运行作业。不幸的是,气流部分失败。
我猜这是因为SparkSubmitOperator找不到火花二进制文件,但是在设置中,一切看起来都很好。
有一个开放的issue,其中包含详细信息。我希望我们可以一起解决它,因为我是Docker-Compose的新手,可能会错过一些相关的观点。
感谢您的支持。