标签: scala apache-spark
由于某种原因,我想创建与执行程序数量*任务数量一样多的分区。这就是我要传递给sc.parallelize的第二个参数的内容。现在我的问题是,我是否可以通过编程方式获取Spark中的执行者数量和每个执行者的任务数量。
sc.parallelize