PySpark:如何使用零活动任务来停止执行程序?

时间:2016-09-29 18:37:30

标签: pyspark

我使用CPU网格运行PySpark,每个主机有许多主机和多个核心。当我启动框架时,可以将许多任务分配给单个主机。我注意到,当主机上的所有任务都完成后,主机仍将保持一个CPU,直到框架完成。为什么会这样?是否可以更改此行为,以便它不会保留到没有关联任务的核心?

0 个答案:

没有答案