将多个Dataframe合并到Spark中的一个Dataframe中

时间:2016-10-11 20:54:53

标签: scala apache-spark spark-dataframe

我有一个场景,我从10个来源获取列,每个列都是数据帧形式(即df1,df2,df3 ...... df10),每行有一个值。每个数据帧都有不同的列集,没有任何共同之处。我需要在不使用JOIN的情况下合并Dataframe。

例如:

DataFrame(df1){Columns:age}:

12

DataFrame(df2){Columns:height}:

4.8

结果DataFrame(rdf){Columns:age,height}:

2,3.2

0 个答案:

没有答案