标签: apache-spark
根据Deep Dive: Apache Spark Memory Management,对同一执行者并行运行的任务存在争议。
从 Spark 1.0 + 有两种可能的选择:
AFAIK Spark默认使用第二个选项。是否有可能为每个任务手动指定最大资源?