我有一个数据框,如下所示:
+---+---+---+
| F1| F2| F3|
+---+---+---+
| x| y| 1|
| x| z| 2|
| x| a| 4|
| x| a| 4|
| x| y| 1|
| t| y2| 6|
| t| y3| 4|
| t| y4| 5|
+---+---+---+
我想添加另一列的值为(number of unique rows of "F1" and "F2" for each unique "F3" / total number of unique rows of "F1" and "F2"
。
例如,对于上表,下面是所需的新数据框:
+---+---+---+----+
| F1| F2| F3| F4|
+---+---+---+----+
| t| y4| 5| 1/6|
| x| y| 1| 1/6|
| x| y| 1| 1/6|
| x| z| 2| 1/6|
| t| y2| 6| 1/6|
| t| y3| 4| 2/6|
| x| a| 4| 2/6|
| x| a| 4| 2/6|
+---+---+---+----+
注意:在F3 = 4
的情况下,只有2
个唯一的F1
和F2
= {(t, y3), (x, a)}
。因此,对于所有F3 = 4
,F4
将是2/(total number of unique ordered pairs of F1 and F2. Here there are 6 such pairs)
如何在Spark Scala中实现上述转换?
答案 0 :(得分:1)
我刚刚学会了尝试解决您的问题,即在通过DataFrame执行Window时不能使用Distinct函数。
所以我要做的是创建一个临时DataFrame并将其与首字母结合起来以获得所需的结果:
case class Dog(F1:String, F2: String, F3: Int)
val df = Seq(Dog("x", "y", 1), Dog("x", "z", 2), Dog("x", "a", 4), Dog("x", "a", 4), Dog("x", "y", 1), Dog("t", "y2", 6), Dog("t", "y3", 4), Dog("t", "y4", 5)).toDF
val unique_F1_F2 = df.select("F1", "F2").distinct.count
val dd = df.withColumn("X1", concat(col("F1"), col("F2")))
.groupBy("F3")
.agg(countDistinct(col("X1")).as("distinct_count"))
val final_df = dd.join(df, "F3")
.withColumn("F4", col("distinct_count")/unique_F1_F2)
.drop("distinct_count")
final_df.show
+---+---+---+-------------------+
| F3| F1| F2| F4|
+---+---+---+-------------------+
| 1| x| y|0.16666666666666666|
| 1| x| y|0.16666666666666666|
| 6| t| y2|0.16666666666666666|
| 5| t| y4|0.16666666666666666|
| 4| t| y3| 0.3333333333333333|
| 4| x| a| 0.3333333333333333|
| 4| x| a| 0.3333333333333333|
| 2| x| z|0.16666666666666666|
+---+---+---+-------------------+
我希望这就是您的期望!
编辑:我将df.count更改为unique_F1_F2