标签: apache-spark
我们正在集群模式下运行spark。根据spark文档,我们可以提供spark.executor.memory = 3g来更改执行程序内存大小。或者我们可以提供spark-shell --executor-memory 3g。但是,当我去检查火花UI的方式时,它显示每个执行器具有530 MB的内存。任何想法如何改变内存超过530MB。