如何在多个条件下一个接一个地加入2个spark数据帧?

时间:2019-07-20 03:28:16

标签: apache-spark pyspark apache-spark-sql

我目前正在一个应用程序上尝试执行多个联接,但是以基于步骤的方式进行操作,例如,在df1.col1 = df2.col2上联接,并且在先前条件中不匹配的联接中联接在df1.col1 = df2.col3上。一旦所有这样的联接都联接,我想要一个数据框,该数据框是上述所有列的输出的并集。有没有允许类似功能的功能。

0 个答案:

没有答案