Spark UI:如何在同一执行程序的内核之间平衡处理后的数据量

时间:2019-11-23 19:35:34

标签: performance apache-spark bigdata spark-ui

对于洗牌动作,我看到由同一执行器的核心处理的数据是不平衡的,当然,执行时间最长的数据会减慢整个处理时间。

所以我想知道是否可以进行一些修改,以便在内核之间平均共享数据。

我在aws emr和s3上使用Spark 2.4。

enter image description here

0 个答案:

没有答案