嗨,我有一个 PySpark数据框。因此,我想从特殊条件的不同行中添加两列。列之一是日期类型。
以下是数据示例:
--------------------------------
| flag| date | diff |
--------------------------------
| 1 | 2014-05-31 | 0 |
--------------------------------
| 2 | 2014-06-02 | 2 |
--------------------------------
| 3 | 2016-01-14 | 591 |
--------------------------------
| 1 | 2016-07-08 | 0 |
--------------------------------
| 2 | 2016-07-12 | 4 |
--------------------------------
目前,我只知道如何通过使用以下代码添加两列:
from pyspark.sql.functions import expr
dataframe.withColumn("new_column", expr("date_add(date_column, int_column)"))
预期结果:
有一个新列,称为“ new_date”,它是通过将“ diff”列添加到“ date column”而得到的。
捕获有一个特殊条件:如果“ flag”为1,则“ date”和“ diff”来自同一行,如果不是,则“ date”来自上一行。
我知道在这种情况下,我的数据必须正确排序。
如果有人可以帮助我,我将非常感激。谢谢。
答案 0 :(得分:1)
您只需要使用Window创建一个具有上一个日期的列,并根据'flag'的值构造一个新列
import pyspark.sql.functions as F
from pyspark.sql.window import Window
w = Window().partitionBy().orderBy(F.col('date'))
dataframe = dataframe.withColumn('previous_date', F.lag('date', 1).over(w))
dataframe = dataframe.withColumn('new_date',
F.when(F.col('flag')==1,
F.expr("date_add(previous_date, diff)")
).otherwise(F.expr("date_add(date, diff)"))
).drop('previous_date')
答案 1 :(得分:1)
以防万一您对Xavier的回答有相同的问题。想法是相同的,但是我删除了一些不必要的Window条件,并修复了语法错误以及尝试使用他的版本时遇到的date_add
错误。
from pyspark.sql.functions import *
df1 = spark.createDataFrame([(1,datetime.date(2014,5,31),0),(2,datetime.date(2014,6,2),2),(3,datetime.date(2016,1,14),591),(1,datetime.date(2016,7,8),0),(2,datetime.date(2016,7,12),4)], ["flag","date","diff"])
w = Window.orderBy(col("date"))
df1 = df1.withColumn('previous_date', lag('date', 1).over(w))
df1 = df1.withColumn('new_date',when(col('flag')==1,\
expr('date_add(date, diff)'))\
.otherwise(expr('date_add(previous_date,diff)'))).drop('previous_date')
df1.show()
输出:
+----+----------+----+----------+
|flag| date|diff| new_date|
+----+----------+----+----------+
| 1|2014-05-31| 0|2014-05-31|
| 2|2014-06-02| 2|2014-06-02|
| 3|2016-01-14| 591|2016-01-14|
| 1|2016-07-08| 0|2016-07-08|
| 2|2016-07-12| 4|2016-07-12|
+----+----------+----+----------+