如何在Spark Dataframe上有效执行此列操作?

时间:2018-11-09 07:25:54

标签: scala apache-spark apache-spark-sql

我有一个数据框,如下所示:

+---+---+---+
| F1| F2| F3|
+---+---+---+
|  x|  y|  1|
|  x|  z|  2|
|  x|  a|  4|
|  x|  a|  4|
|  x|  y|  1|
|  t| y2|  6|
|  t| y3|  4|
|  t| y4|  5|
+---+---+---+

我想添加另一列的值为(number of unique rows of "F1" and "F2" for each unique "F3" / total number of unique rows of "F1" and "F2"

例如,对于上表,下面是所需的新数据框:

+---+---+---+----+
| F1| F2| F3|  F4|
+---+---+---+----+
|  t| y4|  5| 1/6|
|  x|  y|  1| 1/6|
|  x|  y|  1| 1/6|
|  x|  z|  2| 1/6|
|  t| y2|  6| 1/6|
|  t| y3|  4| 2/6|
|  x|  a|  4| 2/6|
|  x|  a|  4| 2/6|
+---+---+---+----+

注意:在F3 = 4的情况下,只有2个唯一的F1F2 = {(t, y3), (x, a)}。因此,对于所有F3 = 4F4将是2/(total number of unique ordered pairs of F1 and F2. Here there are 6 such pairs)

如何在Spark Scala中实现上述转换?

1 个答案:

答案 0 :(得分:1)

我刚刚学会了尝试解决您的问题,即在通过DataFrame执行Window时不能使用Distinct函数。

所以我要做的是创建一个临时DataFrame并将其与首字母结合起来以获得所需的结果:

case class Dog(F1:String, F2: String, F3: Int)
val df = Seq(Dog("x", "y", 1), Dog("x", "z", 2), Dog("x", "a", 4), Dog("x", "a", 4), Dog("x", "y", 1), Dog("t", "y2", 6), Dog("t", "y3", 4), Dog("t", "y4", 5)).toDF
val unique_F1_F2 = df.select("F1", "F2").distinct.count
val dd = df.withColumn("X1", concat(col("F1"), col("F2")))
           .groupBy("F3")
           .agg(countDistinct(col("X1")).as("distinct_count"))
val final_df = dd.join(df, "F3")
                 .withColumn("F4", col("distinct_count")/unique_F1_F2)
                 .drop("distinct_count")
final_df.show
+---+---+---+-------------------+
| F3| F1| F2|                 F4|
+---+---+---+-------------------+
|  1|  x|  y|0.16666666666666666|
|  1|  x|  y|0.16666666666666666|
|  6|  t| y2|0.16666666666666666|
|  5|  t| y4|0.16666666666666666|
|  4|  t| y3| 0.3333333333333333|
|  4|  x|  a| 0.3333333333333333|
|  4|  x|  a| 0.3333333333333333|
|  2|  x|  z|0.16666666666666666|
+---+---+---+-------------------+

我希望这就是您的期望!

编辑:我将df.count更改为unique_F1_F2