如何根据条件更新Spark数据框中的行

时间:2020-02-11 11:43:53

标签: python pyspark

我正在尝试更新数据框的某些行,下面是我的代码。

dfs_ids1 = dfs_ids1.withColumn("arrival_dt", F.when(F.col("arrival_dt")=='1960-01-01', lit(None)) )

基本上,我想用 null 更新 arrival_dt 1960-01-01 的所有行并保留其余行不变

1 个答案:

答案 0 :(得分:0)

您需要了解filterwhen函数。

如果您只想获取行而不关心其他行,请尝试这样做。

from pyspark.sql.functions import *

dfs_ids1 = dfs_ids1.filter(col("arrival_dt='1960-01-01'"))

如果您要使用自定义值或其他列更新剩余的内容。

dfs_ids1=dfs_ids1.withColumn("arrival_dt",when(col("arrival_dt")=="1960-01-01",col("arrival_dt")).otherwise(lit(None))) 

//Or

dfs_ids1=dfs_ids1.withColumn("arrival_dt",when(col("arrival_dt")=="1960-01-01",col("arrival_dt")))

//Sample example

//Input df

+------+-------+-----+
|  name|   city|state|
+------+-------+-----+
| manoj|gwalior|   mp|
| kumar|  delhi|delhi|
|dhakad|chennai|   tn|
+------+-------+-----+

from pyspark.sql.functions import *
opOneDf=df.withColumn("name",when(col("city")=="delhi",col("city")).otherwise(lit(None)))
opOneDf.show()

//Sample output

+-----+-------+-----+
| name|   city|state|
+-----+-------+-----+
| null|gwalior|   mp|
|delhi|  delhi|delhi|
| null|chennai|   tn|
+-----+-------+-----+