标签: pyspark
df1.union(df2)
如何将其扩展为处理具有不同列数的pyspark数据帧?
答案 0 :(得分:3)
我建议添加那些值为NULL的列
df.withColumn('missing_column_name',lit(None)).withCol......
然后执行合并。
同样重要的是,每一列的位置应彼此匹配,否则您可以使用unionByName。