Spark DataFrame按列将列值聚合到List中

时间:2016-05-25 14:37:05

标签: apache-spark dataframe apache-spark-sql

我的DataFrame看起来像这样:

+-----------------+-------+
|Id               | value |
+-----------------+-------+
|             1622| 139685|
|             1622| 182118|
|             1622| 127955|
|             3837|3224815|
|             1622| 727761|
|             1622| 155875|
|             3837|1504923|
|             1622| 139684|
+-----------------+-------+

我想把它变成:

    +-----------------+-------------------------------------------+
    |Id               | value                                     |
    +-----------------+-------------------------------------------+
    |             1622|139685,182118,127955,727761,155875,139684  |
    |             3837|3224815,1504923                            |
    +-----------------+-------------------------------------------+

这仅适用于DataFrame个功能,还是需要将其转换为RDD

2 个答案:

答案 0 :(得分:8)

可以使用DataFrame API。尝试:

df.groupBy(col("Id"))
  .agg(collect_list(col("value")) as "value")

如果您要Array而不是String而不是,,请尝试以下操作:

df.groupBy(col("Id"))
  .agg(collect_list(col("value")) as "value")
  .withColumn("value", concat_ws(",", col("value")))

答案 1 :(得分:0)

David Griffin above所示,您可以使用Scala / Java collect_list API中的DataFrame函数。

但是,也可以使用相同的函数,但使用Spark SQL API:

spark.sql("SELECT id, collect_list(value) FROM df GROUP BY id")