假设我有以下数据
+--------------------+-----+--------------------+
| values|count| values2|
+--------------------+-----+--------------------+
| aaaaaa| 249| null|
| bbbbbb| 166| b2|
| cccccc| 1680| something|
+--------------------+-----+--------------------+
因此,如果values2
列中有空值,如何为其分配values1
列?所以结果应该是:
+--------------------+-----+--------------------+
| values|count| values2|
+--------------------+-----+--------------------+
| aaaaaa| 249| aaaaaa|
| bbbbbb| 166| b2|
| cccccc| 1680| something|
+--------------------+-----+--------------------+
我想到了以下内容,但它不起作用:
df.na.fill({"values2":df['values']}).show()
我找到了这种方法来解决它,但应该有一些更明确的前进:
def change_null_values(a,b):
if b:
return b
else:
return a
udf_change_null = udf(change_null_values,StringType())
df.withColumn("values2",udf_change_null("values","values2")).show()
答案 0 :(得分:1)
您可以使用https://spark.apache.org/docs/1.6.2/api/python/pyspark.sql.html#pyspark.sql.functions.coalesce
df.withColumn('values2', coalesce(df.values2, df.values)).show()
答案 1 :(得分:0)
您可以使用列属性.isNull()
。
df.where(col("dt_mvmt").isNull())
df.where(col("dt_mvmt").isNotNull())
此答案来自this答案-我只是没有足够的声誉来添加评论。