标签: apache-spark architecture internal
在Spark中,执行者可以同时运行许多任务,可能是2或5或6。
Spark如何同时计算(或计算)在同一执行程序中运行的任务数,即同时在执行程序中运行多少任务?
执行程序可能正在执行一个任务,但是可以在同一个执行程序上同时运行另外一个任务?这个标准是什么?
遗嘱执行人有固定数量的家务活动。记忆。因为我们没有指定记忆和在Spark中的任务要求,如何计算在执行程序中可以并发运行的数量?
答案 0 :(得分:2)
请在下面找到答案:
您可以简要了解Spark here的群集概述。