标签: pyspark
我使用CPU网格运行PySpark,每个主机有许多主机和多个核心。当我启动框架时,可以将许多任务分配给单个主机。我注意到,当主机上的所有任务都完成后,主机仍将保持一个CPU,直到框架完成。为什么会这样?是否可以更改此行为,以便它不会保留到没有关联任务的核心?