Spark如何处理作业,执行者如何处理任务?

时间:2019-05-24 12:43:55

标签: apache-spark dolphindb

在DolphinDB中,每个数据节点都使用执行程序线程池中的线程执行任务,因此,尽管数据节点中有许多执行程序,但整个数据节点上都共享了处理任务所需的数据。我想知道如何在Spark中管理执行器,执行器如何彼此交互以及如何在执行器中处理任务。 预先谢谢你。

0 个答案:

没有答案