具有当前行条件的火花窗口功能

时间:2018-10-19 15:22:35

标签: scala apache-spark apache-spark-sql

我正在尝试计算给定的order_id在过去365天内有多少笔订单已付款。这不是问题:我使用window function

对我来说棘手的地方是:我不想在当前payment_date的{​​{1}}之后order_date的时间窗口中计算订单。

目前,我有这样的事情:

order_id

val window: WindowSpec = Window
  .partitionBy("customer_id")
  .orderBy("order_date")
  .rangeBetween(-365*days, -1)

,它将计算当前客户之前的365天内客户的所有订单。

我现在如何纳入考虑当前订单的df.withColumn("paid_order_count", count("*") over window) 的计数条件?

示例:

order_date

结果表应如下所示:

+---------+-----------+-------------+------------+
|order_id |order_date |payment_date |customer_id |
+---------+-----------+-------------+------------+
|1        |2017-01-01 |2017-01-10   |A           |
|2        |2017-02-01 |2017-02-10   |A           |
|3        |2017-02-02 |2017-02-20   |A           |

对于+---------+-----------+-------------+------------+-----------------+ |order_id |order_date |payment_date |customer_id |paid_order_count | +---------+-----------+-------------+------------+-----------------+ |1 |2017-01-01 |2017-01-10 |A |0 | |2 |2017-02-01 |2017-02-10 |A |1 | |3 |2017-02-02 |2017-02-20 |A |1 | order_id = 3不应为paid_order_count,而应为2,因为1是在放置order_id = 2之后支付的。

希望我能很好地解释我的问题,并期待您的想法!

1 个答案:

答案 0 :(得分:3)

很好的问题!!! 使用 rangeBetween 的一些说明会创建一个固定的框架,该框架基于其中的行数而不是值,因此在两种情况下会出现问题:

  1. 客户每天都没有订单,因此365行窗口可能包含一年前有order_date的行
  2. 如果客户每天有一个以上的订单,那么它将影响一年的承保范围
  3. 1和2的组合

rangeBetween 也不适用于日期和时间戳数据类型。

要解决此问题,可以将窗口函数与列表和UDF一起使用:

import org.apache.spark.sql.functions._
import org.apache.spark.sql.expressions.Window

  val df = spark.sparkContext.parallelize(Seq(
    (1, "2017-01-01", "2017-01-10", "A")
    , (2, "2017-02-01", "2017-02-10", "A")
    , (3, "2017-02-02", "2017-02-20", "A")
  )
  ).toDF("order_id", "order_date", "payment_date", "customer_id")
    .withColumn("order_date_ts", to_timestamp($"order_date", "yyyy-MM-dd").cast("long"))
    .withColumn("payment_date_ts", to_timestamp($"payment_date", "yyyy-MM-dd").cast("long"))

//      df.printSchema()
//      df.show(false)

  val window = Window.partitionBy("customer_id").orderBy("order_date_ts").rangeBetween(Window.unboundedPreceding, -1)

  val count_filtered_dates = udf( (days: Int, top: Long, array: Seq[Long]) => {
      val bottom = top - (days * 60 * 60 * 24).toLong // in spark timestamps are in secconds, calculating the date days ago
      array.count(v => v >= bottom && v < top)
    }
  )

  val res = df.withColumn("paid_orders", collect_list("payment_date_ts") over window)
      .withColumn("paid_order_count", count_filtered_dates(lit(365), $"order_date_ts", $"paid_orders"))

  res.show(false)

输出:

+--------+----------+------------+-----------+-------------+---------------+------------------------+----------------+
|order_id|order_date|payment_date|customer_id|order_date_ts|payment_date_ts|paid_orders             |paid_order_count|
+--------+----------+------------+-----------+-------------+---------------+------------------------+----------------+
|1       |2017-01-01|2017-01-10  |A          |1483228800   |1484006400     |[]                      |0               |
|2       |2017-02-01|2017-02-10  |A          |1485907200   |1486684800     |[1484006400]            |1               |
|3       |2017-02-02|2017-02-20  |A          |1485993600   |1487548800     |[1484006400, 1486684800]|1               |
+--------+----------+------------+-----------+-------------+---------------+------------------------+----------------+

将日期转换为Spark时间戳(以秒为单位)可以使列表更有效地存储内存。

这是最容易实现的代码,但不是最理想的代码,因为列表将占用一些内存,自定义UDAF最好,但需要更多代码,可能以后再做。如果每个客户有数千个订单,这仍然可以使用。