标签: scala apache-spark apache-spark-sql spark-dataframe
我正在使用spark-submit运行Spark Job。 在这个我迭代3-4次查询将按顺序运行。
虽然整个作业成功完成,但仍然显示活动作业和待处理任务。正如我们在Job ID中看到的那样:0,没有一个阶段是完整的。也在任务下。
这可能是什么原因?为什么会发生这种情况