使用Azure Data Factory V1的Spark作业链接

时间:2018-10-23 10:30:11

标签: apache-spark azure-data-factory azure-data-factory-2

假设我们有三个火花作业,分别是S1,S2和S3。

我想以某种方式配置这两个作业,以便一旦S1成功完成,就应该调用S2。 另一方面,如果S1失败,则应调用S3。 如何使用Azure Data Factory V1完成此操作?

1 个答案:

答案 0 :(得分:0)

如果您可以使用v2,则它是the v2 doc,表示活动相关。