PySpark Groupby条件过滤

时间:2020-10-09 03:12:57

标签: python apache-spark pyspark etl user-defined-functions

我正在研究pyspark中的结构化数据框。从s3读取实木复合地板格式的数据。然后,我想用条件过滤掉一些数据。 例如:

Data:
key_1  value rec_date
  A     1    2020-01-01
  A     2    2020-01-02
  A    10    2020-01-03
  B    10    2020-10-10
  B    10    2020-10-11
  B    10    2020-10-12
Filter Condition:
{"A":{'abnormal_daterange':[('2020-01-01', '2020-01-02'), ('2020-02-01', '2020-02-04')]},
"B": {'abnormal_daterange':[('2020-10-10', '2020-10-11')]}
}
Expected result:
key_1  value rec_date
  A    10    2020-01-03
  B    10    2020-10-12

我知道我可以使用@pandas-udf来创建要group by的函数并根据条件进行过滤,但是我想简化代码并且不要过度设计。

任何结构化数据帧filter /内置函数都可以有效过滤具有条件的数据吗?

1 个答案:

答案 0 :(得分:0)

假设您有dffilterDf

df = spark.createDataFrame(
    [
        ("A", "1", "2020-01-01"),
        ("A", "2", "2020-01-02"),
        ("A", "10", "2020-01-03"),
        ("B", "10", "2020-10-10"),
        ("B", "10", "2020-10-11"),
        ("B", "10", "2020-10-12")
    ],
    ['key_1', 'value', 'rec_date']
)

filterDf = spark.createDataFrame(
    [
        ("A", "2020-01-01", "2020-01-02"),
        ("B", "2020-10-01", "2020-10-11")
    ],
    ["key", "start_date", "end_date"]
)

然后,您可以使用左反连接对df的内容过滤filterDf

res = df.join(
    filterDf.hint("broadcast"),
    (col("key_1") == col("key")) & (col("rec_date").between(col("start_date"), col("end_date"))),
    "leftanti"
)

结果将是:

+-----+-----+----------+
|key_1|value|  rec_date|
+-----+-----+----------+
|    A|   10|2020-01-03|
|    B|   10|2020-10-12|
+-----+-----+----------+

然后,您可以应用groupBy聚合。