Spark 3.0版。
我有两个数据框。
我使用熊猫的日期范围创建一个带有日期列的数据框。
我有一个第二火花数据框,其中包含公司名称,日期和价值。
我想按公司将DF2合并为DF1,以便我可以填写缺失的日期,也可以填充上一行的缺失值。
我该怎么做?我曾考虑过左联接,但似乎效果不佳。
答案 0 :(得分:0)
尝试一下。有点复杂。
import pyspark.sql.functions as f
from pyspark.sql import Window
df1 = spark.read.option("header","true").option("inferSchema","true").csv("test1.csv") \
.withColumn('Date', f.to_date('Date', 'dd/MM/yyyy'))
df2 = spark.read.option("header","true").option("inferSchema","true").csv("test2.csv") \
.withColumn('Date', f.to_date('Date', 'dd/MM/yyyy'))
w1 = Window.orderBy('Company', 'Date')
w2 = Window.orderBy('Company', 'Date').rowsBetween(Window.unboundedPreceding, Window.currentRow)
w3 = Window.partitionBy('partition').orderBy('Company', 'Date')
df1.crossJoin(df2.select('Company').distinct()) \
.join(df2, ['Company', 'Date'], 'left') \
.withColumn('range', (f.col('Value').isNull() | f.lead(f.col('Value'), 1, 0).over(w1).isNull()) != f.col('Value').isNull()) \
.withColumn('partition', f.sum(f.col('range').cast('int')).over(w2)) \
.withColumn('fill', f.first('Value').over(w3)) \
.orderBy('Company', 'Date') \
.selectExpr('Company', 'Date', 'coalesce(Value, fill) as Value') \
.show(20, False)
+-------+----------+-----+
|Company|Date |Value|
+-------+----------+-----+
|A |2000-01-01|13 |
|A |2000-01-02|14 |
|A |2000-01-03|15 |
|A |2000-01-04|19 |
|A |2000-01-05|19 |
|A |2000-01-06|19 |
|A |2000-01-07|19 |
|A |2000-01-08|19 |
|A |2000-01-09|19 |
|B |2000-01-01|19 |
|B |2000-01-02|19 |
|B |2000-01-03|20 |
|B |2000-01-04|25 |
|B |2000-01-05|23 |
|B |2000-01-06|24 |
|B |2000-01-07|24 |
|B |2000-01-08|24 |
|B |2000-01-09|24 |
+-------+----------+-----+
多次添加.show
可能会对您有所帮助。