标签: apache-spark parallel-processing taskscheduler
我已经阅读了一些关于Spark任务调度的文献,并且发现一些文章提到Executor每时每个都只被一个应用程序垄断。 所以我想知道一个执行器中的任务槽是否可以同时由不同的Spark应用程序共享?