标签: pyspark amazon-emr
我正在执行pyspark作业
spark-submit --driver-memory 2g --executor-memory 2g --conf spark.driver.maxResultSize=2g job.py
我尝试更改多个选项,但每次遇到以下错误时:
我是火花新手,有人可以帮助我解决此问题的方法吗。
答案 0 :(得分:0)
尝试减少驱动程序内存-提交作业的节点内存不足。