标签: apache-spark task core partition
单个任务执行单个spark分区还是可以由多个任务执行?
如果分区>>任务>>核心,我们是否需要根据可用核心重新分配?
阶段和任务之间的关系是什么?