如何在Spark UI中跟踪任务的进度?

时间:2018-11-26 12:53:59

标签: apache-spark pyspark

我想知道在Spark Job中完成一项特定任务缺少多少。主要是因为只有一项任务(由于数据偏斜,另一个主题的另一个问题)而使整个作业保持运行。

是否可以通过Spark UI检查单个任务的进度? enter image description here

0 个答案:

没有答案