从运行Spark Job中删除Worker节点

时间:2018-05-15 16:58:19

标签: apache-spark pyspark

我正在尝试查看是否有一种方法可以在运行期间从Spark群集中正常删除工作节点。例如,一种告诉调度程序不要将新任务分配给worker的方法,这样我就可以在当前工作完成后删除它。 任何IDEA?

0 个答案:

没有答案