使用Spark过滤具有条件的数据框

时间:2017-09-06 06:51:26

标签: scala apache-spark apache-spark-sql

我的数据框看起来像

scala> val df = sc.parallelize(Seq(("User 1","X"), ("User 2", "Y"), ("User 3", "X"), ("User 2", "E"), ("User 3", "E"))).toDF("user", "event")

scala> df.show
+------+-----+
|  user|event|
+------+-----+
|User 1|    X|
|User 2|    Y|
|User 3|    X|
|User 2|    E|
|User 3|    E|
+------+-----+

我想找到所有拥有“X”事件但没有事件“E”的用户

在这种情况下,只有'用户1'符合条件,因为它没有事件“E”条目。我怎样才能使用Spark API?

4 个答案:

答案 0 :(得分:4)

可以使用左连接:

val xDF = df.filter(col("event") === "X")
val eDF = df.filter(col("event") === "E")
val result = xDF.as("x").join(eDF.as("e"), List("user"), "left_outer").where(col("e.event").isNull).select(col("x.user"))

结果是:

+------+
|user  |
+------+
|User 1|
+------+

答案 1 :(得分:4)

您可以使用事件集合对用户进行分组,然后根据特定条件过滤掉适当用户的事件。

i == 4 and j == 5

答案 2 :(得分:3)

val tmp = df.groupBy("user").pivot("event").count
tmp.show
+------+----+----+----+
|  user|   E|   X|   Y|
+------+----+----+----+
|User 2|   1|null|   1|
|User 3|   1|   1|null|
|User 1|null|   1|null|
+------+----+----+----+
tmp.filter(  ($"X" isNotNull) and ($"E" isNull) ).show
+------+----+---+----+
|  user|   E|  X|   Y|
+------+----+---+----+
|User 1|null|  1|null|
+------+----+---+----+
tmp.filter(  ($"X" isNotNull) and ($"E" isNull) ).select("user","X").show 
+------+---+
|  user|  X|
+------+---+
|User 1|  1|
+------+---+

希望这会有所帮助

答案 3 :(得分:1)

您可以计算每个用户的行数并计算用户和事件的每一行,并过滤那两个计数相等且事件列具有X值的行。

import org.apache.spark.sql.functions._
import org.apache.spark.sql.expressions.Window
df.withColumn("count", count($"user").over(Window.partitionBy("user")))
    .withColumn("distinctCount", count($"user").over(Window.partitionBy("user", "event")))
    .filter($"count" === $"distinctCount" && $"event" === "X")
    .drop("count", "distinctCount")

你应该得到你想要的结果

我希望答案很有帮助