如果一个执行程序中的任务槽可以由不同的Spark应用程序任务共享?

时间:2016-10-27 01:30:21

标签: apache-spark parallel-processing taskscheduler

我已经阅读了一些关于Spark任务调度的文献,并且发现一些文章提到Executor每时每个都只被一个应用程序垄断。 所以我想知道一个执行器中的任务槽是否可以同时由不同的Spark应用程序共享?

0 个答案:

没有答案