Spark消耗更多的堆内存。是真的吗

时间:2018-06-27 21:51:28

标签: apache-spark

关于堆内存。

相比Hadoop,Spark消耗更多的堆内存。

请给我建议。

1 个答案:

答案 0 :(得分:0)

从Apache Spark版本1.6.0开始,内存管理模型已更改。旧的内存管理模型由StaticMemoryManager类实现,现在称为“旧版”。默认情况下,“传统”模式处于禁用状态,这意味着在Spark 1.5.x和1.6.0上运行相同的代码将导致不同的行为,请谨慎操作。为了兼容性,您可以使用spark.memory.useLegacyMode参数启用“旧版”模型,该参数默认情况下处于关闭状态。

这也取决于您的堆配置。