标签: scala apache-spark spark-dataframe
我有一个场景,我从10个来源获取列,每个列都是数据帧形式(即df1,df2,df3 ...... df10),每行有一个值。每个数据帧都有不同的列集,没有任何共同之处。我需要在不使用JOIN的情况下合并Dataframe。
例如:
DataFrame(df1){Columns:age}:
12
DataFrame(df2){Columns:height}:
4.8
结果DataFrame(rdf){Columns:age,height}:
2,3.2