PySpark:如何在特定列的数据框中填充值?

时间:2017-07-12 19:02:06

标签: apache-spark pyspark spark-dataframe

我有以下示例DataFrame:

a    | b    | c   | 

1    | 2    | 4   |
0    | null | null| 
null | 3    | 4   |

我想仅在前2列中替换空值 - 列“a”和“b”:

a    | b    | c   | 

1    | 2    | 4   |
0    | 0    | null| 
0    | 3    | 4   |

以下是创建示例数据帧的代码:

rdd = sc.parallelize([(1,2,4), (0,None,None), (None,3,4)])
df2 = sqlContext.createDataFrame(rdd, ["a", "b", "c"])

我知道如何使用以下方法替换所有空值:

df2 = df2.fillna(0)

当我尝试这个时,我失去了第三列:

df2 = df2.select(df2.columns[0:1]).fillna(0)

2 个答案:

答案 0 :(得分:31)

df.fillna(0, subset=['a', 'b'])

除非您的spark版本低于1.3.1,否则有一个名为subset的参数可用于选择列

答案 1 :(得分:9)

使用字典填充某些列的值:

df.fillna( { 'a':0, 'b':0 } )