标签: apache-spark
我的Spark应用程序在80个分区上运行。我假设在Spark UI中看到大多数“阶段”具有80个或更少的任务。我一开始就是这样,但是每隔几个阶段它就会开始上升。我没有做任何分区或合并声明。是什么原因导致这种行为?阶段0在底部: