Pyspark按组填充缺少的日期并填充先前的值

时间:2020-08-18 10:19:05

标签: python pyspark

Spark 3.0版。

我有两个数据框。

我使用熊猫的日期范围创建一个带有日期列的数据框。

我有一个第二火花数据框,其中包含公司名称,日期和价值。

我想按公司将DF2合并为DF1,以便我可以填写缺失的日期,也可以填充上一行的缺失值。

我该怎么做?我曾考虑过左联接,但似乎效果不佳。

enter image description here

1 个答案:

答案 0 :(得分:0)

尝试一下。有点复杂。

import pyspark.sql.functions as f
from pyspark.sql import Window

df1 = spark.read.option("header","true").option("inferSchema","true").csv("test1.csv") \
  .withColumn('Date', f.to_date('Date', 'dd/MM/yyyy'))
df2 = spark.read.option("header","true").option("inferSchema","true").csv("test2.csv") \
  .withColumn('Date', f.to_date('Date', 'dd/MM/yyyy'))

w1 = Window.orderBy('Company', 'Date')
w2 = Window.orderBy('Company', 'Date').rowsBetween(Window.unboundedPreceding, Window.currentRow)
w3 = Window.partitionBy('partition').orderBy('Company', 'Date')

df1.crossJoin(df2.select('Company').distinct()) \
   .join(df2, ['Company', 'Date'], 'left') \
   .withColumn('range', (f.col('Value').isNull() | f.lead(f.col('Value'), 1, 0).over(w1).isNull()) != f.col('Value').isNull()) \
   .withColumn('partition', f.sum(f.col('range').cast('int')).over(w2)) \
   .withColumn('fill', f.first('Value').over(w3)) \
   .orderBy('Company', 'Date') \
   .selectExpr('Company', 'Date', 'coalesce(Value, fill) as Value') \
   .show(20, False)

+-------+----------+-----+
|Company|Date      |Value|
+-------+----------+-----+
|A      |2000-01-01|13   |
|A      |2000-01-02|14   |
|A      |2000-01-03|15   |
|A      |2000-01-04|19   |
|A      |2000-01-05|19   |
|A      |2000-01-06|19   |
|A      |2000-01-07|19   |
|A      |2000-01-08|19   |
|A      |2000-01-09|19   |
|B      |2000-01-01|19   |
|B      |2000-01-02|19   |
|B      |2000-01-03|20   |
|B      |2000-01-04|25   |
|B      |2000-01-05|23   |
|B      |2000-01-06|24   |
|B      |2000-01-07|24   |
|B      |2000-01-08|24   |
|B      |2000-01-09|24   |
+-------+----------+-----+

多次添加.show可能会对您有所帮助。