我正在尝试计算给定的order_id
在过去365天内有多少笔订单已付款。这不是问题:我使用window function。
对我来说棘手的地方是:我不想在当前payment_date
的{{1}}之后order_date
的时间窗口中计算订单。
目前,我有这样的事情:
order_id
和
val window: WindowSpec = Window
.partitionBy("customer_id")
.orderBy("order_date")
.rangeBetween(-365*days, -1)
,它将计算当前客户之前的365天内客户的所有订单。
我现在如何纳入考虑当前订单的df.withColumn("paid_order_count", count("*") over window)
的计数条件?
示例:
order_date
结果表应如下所示:
+---------+-----------+-------------+------------+
|order_id |order_date |payment_date |customer_id |
+---------+-----------+-------------+------------+
|1 |2017-01-01 |2017-01-10 |A |
|2 |2017-02-01 |2017-02-10 |A |
|3 |2017-02-02 |2017-02-20 |A |
对于+---------+-----------+-------------+------------+-----------------+
|order_id |order_date |payment_date |customer_id |paid_order_count |
+---------+-----------+-------------+------------+-----------------+
|1 |2017-01-01 |2017-01-10 |A |0 |
|2 |2017-02-01 |2017-02-10 |A |1 |
|3 |2017-02-02 |2017-02-20 |A |1 |
,order_id = 3
不应为paid_order_count
,而应为2
,因为1
是在放置order_id = 2
之后支付的。
希望我能很好地解释我的问题,并期待您的想法!
答案 0 :(得分:3)
很好的问题!!! 使用 rangeBetween 的一些说明会创建一个固定的框架,该框架基于其中的行数而不是值,因此在两种情况下会出现问题:
rangeBetween 也不适用于日期和时间戳数据类型。
要解决此问题,可以将窗口函数与列表和UDF一起使用:
import org.apache.spark.sql.functions._
import org.apache.spark.sql.expressions.Window
val df = spark.sparkContext.parallelize(Seq(
(1, "2017-01-01", "2017-01-10", "A")
, (2, "2017-02-01", "2017-02-10", "A")
, (3, "2017-02-02", "2017-02-20", "A")
)
).toDF("order_id", "order_date", "payment_date", "customer_id")
.withColumn("order_date_ts", to_timestamp($"order_date", "yyyy-MM-dd").cast("long"))
.withColumn("payment_date_ts", to_timestamp($"payment_date", "yyyy-MM-dd").cast("long"))
// df.printSchema()
// df.show(false)
val window = Window.partitionBy("customer_id").orderBy("order_date_ts").rangeBetween(Window.unboundedPreceding, -1)
val count_filtered_dates = udf( (days: Int, top: Long, array: Seq[Long]) => {
val bottom = top - (days * 60 * 60 * 24).toLong // in spark timestamps are in secconds, calculating the date days ago
array.count(v => v >= bottom && v < top)
}
)
val res = df.withColumn("paid_orders", collect_list("payment_date_ts") over window)
.withColumn("paid_order_count", count_filtered_dates(lit(365), $"order_date_ts", $"paid_orders"))
res.show(false)
输出:
+--------+----------+------------+-----------+-------------+---------------+------------------------+----------------+
|order_id|order_date|payment_date|customer_id|order_date_ts|payment_date_ts|paid_orders |paid_order_count|
+--------+----------+------------+-----------+-------------+---------------+------------------------+----------------+
|1 |2017-01-01|2017-01-10 |A |1483228800 |1484006400 |[] |0 |
|2 |2017-02-01|2017-02-10 |A |1485907200 |1486684800 |[1484006400] |1 |
|3 |2017-02-02|2017-02-20 |A |1485993600 |1487548800 |[1484006400, 1486684800]|1 |
+--------+----------+------------+-----------+-------------+---------------+------------------------+----------------+
将日期转换为Spark时间戳(以秒为单位)可以使列表更有效地存储内存。
这是最容易实现的代码,但不是最理想的代码,因为列表将占用一些内存,自定义UDAF最好,但需要更多代码,可能以后再做。如果每个客户有数千个订单,这仍然可以使用。