Spark Core对执行者来说不超过530 MB

时间:2017-01-17 06:12:38

标签: apache-spark

我们正在集群模式下运行spark。根据spark文档,我们可以提供spark.executor.memory = 3g来更改执行程序内存大小。或者我们可以提供spark-shell --executor-memory 3g。但是,当我去检查火花UI的方式时,它显示每个执行器具有530 MB的内存。任何想法如何改变内存超过530MB。

0 个答案:

没有答案