标签: apache-spark pyspark
我想知道在Spark Job中完成一项特定任务缺少多少。主要是因为只有一项任务(由于数据偏斜,另一个主题的另一个问题)而使整个作业保持运行。
是否可以通过Spark UI检查单个任务的进度?