标签: scala apache-spark apache-spark-sql
我想知道Spark执行器内存是否有任何大小限制?
考虑运行badass工作进行收集,工会,计数等的情况
只是一点背景,让我们说我有这些资源(2台机器)
Cores: 40 cores, Total = 80 cores Memory: 156G, Total = 312
什么是推荐,更大的对比较小的执行者?