标签: apache-spark dolphindb
在DolphinDB中,每个数据节点都使用执行程序线程池中的线程执行任务,因此,尽管数据节点中有许多执行程序,但整个数据节点上都共享了处理任务所需的数据。我想知道如何在Spark中管理执行器,执行器如何彼此交互以及如何在执行器中处理任务。 预先谢谢你。