如果为列(python)为null,则Spark赋值

时间:2016-09-06 08:33:04

标签: apache-spark dataframe pyspark

假设我有以下数据

+--------------------+-----+--------------------+
|              values|count|             values2|
+--------------------+-----+--------------------+
|              aaaaaa|  249|                null|
|              bbbbbb|  166|                  b2|
|              cccccc| 1680|           something|
+--------------------+-----+--------------------+

因此,如果values2列中有空值,如何为其分配values1列?所以结果应该是:

+--------------------+-----+--------------------+
|              values|count|             values2|
+--------------------+-----+--------------------+
|              aaaaaa|  249|              aaaaaa|
|              bbbbbb|  166|                  b2|
|              cccccc| 1680|           something|
+--------------------+-----+--------------------+

我想到了以下内容,但它不起作用:

df.na.fill({"values2":df['values']}).show()

我找到了这种方法来解决它,但应该有一些更明确的前进:

def change_null_values(a,b):
    if b:
        return b
    else:
        return a

udf_change_null = udf(change_null_values,StringType())

df.withColumn("values2",udf_change_null("values","values2")).show()

2 个答案:

答案 0 :(得分:1)

您可以使用https://spark.apache.org/docs/1.6.2/api/python/pyspark.sql.html#pyspark.sql.functions.coalesce

df.withColumn('values2', coalesce(df.values2, df.values)).show()

答案 1 :(得分:0)

您可以使用列属性.isNull()

df.where(col("dt_mvmt").isNull())

df.where(col("dt_mvmt").isNotNull())

此答案来自this答案-我只是没有足够的声誉来添加评论。