Spark - 了解独立群集上的简单应用程序

时间:2015-09-17 22:49:32

标签: apache-spark task executor

当我从spark shell运行这个示例应用程序时,我在UI上看到有一个执行器有8个任务。为什么这么小的数据集需要8个任务?

请注意,我在具有8个核心的独立本地群集上运行。

val data = Array(1,2,3,4)
val distData = sc.parallelize(data)
distData.collect()

1 个答案:

答案 0 :(得分:1)

默认分区等于最大核心数。您可以传入第二个参数来覆盖分区数。