如何在Spark中以编程方式获取执行者数量和每个执行者的任务数量

时间:2019-04-05 08:12:21

标签: scala apache-spark

由于某种原因,我想创建与执行程序数量*任务数量一样多的分区。这就是我要传递给sc.parallelize的第二个参数的内容。现在我的问题是,我是否可以通过编程方式获取Spark中的执行者数量和每个执行者的任务数量。

0 个答案:

没有答案