Spark Job Completes但显示不完整的任务:Spark

时间:2018-03-08 19:26:54

标签: scala apache-spark apache-spark-sql spark-dataframe

我正在使用spark-submit运行Spark Job。 在这个我迭代3-4次查询将按顺序运行。

虽然整个作业成功完成,但仍然显示活动作业和待处理任务。正如我们在Job ID中看到的那样:0,没有一个阶段是完整的。也在任务下。

这可能是什么原因?为什么会发生这种情况

Incomplete Job Progress

0 个答案:

没有答案