Spark:将缺失值替换为另一列中的值

时间:2017-02-09 16:48:16

标签: apache-spark pyspark apache-spark-sql

假设您有一个包含一些空值的Spark数据帧,并且您希望将一个列的值替换为另一个列的值(如果存在)。在Python / Pandas中,你可以使用fillna()函数来做到这一点:

df = spark.createDataFrame([('a', 'b', 'c'),(None,'e', 'f'),(None,None,'i')], ['c1','c2','c3'])
DF = df.toPandas()
DF['c1'].fillna(DF['c2']).fillna(DF['c3']) 

如何使用Pyspark完成这项工作?

1 个答案:

答案 0 :(得分:3)

您需要使用合并功能:

cDf = spark.createDataFrame([(None, None), (1, None), (None, 2)], ("a", "b"))
cDF.show()
# +----+----+
# |   a|   b|
# +----+----+
# |null|null|
# |   1|null|
# |null|   2|
# +----+----+

cDf.select(coalesce(cDf["a"], cDf["b"])).show()
# +--------------+
# |coalesce(a, b)|
# +--------------+
# |          null|
# |             1|
# |             2|
# +--------------+

cDf.select('*', coalesce(cDf["a"], lit(0.0))).show()
# +----+----+----------------+
# |   a|   b|coalesce(a, 0.0)|
# +----+----+----------------+
# |null|null|             0.0|
# |   1|null|             1.0|
# |null|   2|             0.0|
# +----+----+----------------+

您还可以在多个列上应用coalesce

cDf.select(coalesce(cDf["a"], cDf["b"], lit(0))).show()
# ...

此示例取自pyspark.sql API documentation