为什么火花需要超过预期的记忆

时间:2016-05-24 03:29:36

标签: apache-spark

这是我的火花配置。

spark.executor.instances 100 
spark.executor.memory 7g
spark.executor.cores 4
spark.driver.memory 7g
spark.memory.useLegacyMode true
spark.storage.memoryFraction 0.2

我丢失了所有执行者,其中shuffle写入超过3GB。

但我认为每个执行者的可用内存是1 *(1 - 0.2)+ OverheadMemory = 7G。 所以其他4G内存被Spark用来做其他辅助事情。火花对这么多记忆有什么影响?

0 个答案:

没有答案