标签: apache-spark pyspark apache-spark-sql
我目前正在一个应用程序上尝试执行多个联接,但是以基于步骤的方式进行操作,例如,在df1.col1 = df2.col2上联接,并且在先前条件中不匹配的联接中联接在df1.col1 = df2.col3上。一旦所有这样的联接都联接,我想要一个数据框,该数据框是上述所有列的输出的并集。有没有允许类似功能的功能。