标签: apache-spark pyspark
我正在获取标准错误:
错误:缺少应用程序资源。
我只想在不包含.py文件的情况下运行火花作业,而仅与.egg文件一起运行,例如:
spark-submit -py-files dbfs:/FileStore/jars/mypackage-0.1-py3.7.egg
是否可以仅使用.egg文件运行spark作业?我该怎么办?