在PySpark中的DataFrame中聚合列数组?

时间:2016-08-16 18:40:15

标签: apache-spark pyspark apache-spark-sql aggregate-functions

假设我有以下DataFrame

[Row(user='bob', values=[0.5, 0.3, 0.2]),
Row(user='bob', values=[0.1, 0.3, 0.6]),
Row(user='bob', values=[0.8, 0.1, 0.1])]

我想groupBy user执行类似avg(values)的操作,其中平均值取自数组values的每个索引,如下所示:

[Row(user='bob', avgerages=[0.466667, 0.233333, 0.3])]

如何在PySpark中执行此操作?

1 个答案:

答案 0 :(得分:9)

您可以扩展每个索引的数组和计算平均值。

<强>的Python

from pyspark.sql.functions import array, avg, col

n = len(df.select("values").first()[0])

df.groupBy("user").agg(
    array(*[avg(col("values")[i]) for i in range(n)]).alias("averages")
)

<强> Scala的

import spark.implicits._
import org.apache.spark.functions.{avg, size}

val df = Seq(
  ("bob", Seq(0.5, 0.3, 0.2)),
  ("bob", Seq(0.1, 0.3, 0.6))
).toDF("user", "values")

val n = df.select(size($"values")).as[Int].first
val values = (0 to n).map(i => $"values"(i))

df.select($"user" +: values: _*).groupBy($"user").avg()