Apache Spark任务订购

时间:2016-04-15 10:53:59

标签: scala apache-spark bigdata

我想知道在Spark的任务执行(Scala)中是否需要等待上一个任务完成才能继续执行下一个任务。我观察到一些连续运行的连接语句产生不一致结果的行为。

如果不等待是否有办法强迫它?

由于

0 个答案:

没有答案