用字典键值替换spark df中一列的值(pyspark)

时间:2017-06-27 09:07:09

标签: apache-spark pyspark spark-dataframe

我在pyspark中遇到了数据转换任务。 我想用df中指定的键值对替换df中一列的所有值。

dict = {'A':1, 'B':2, 'C':3}

我的df看起来像这样:

+-----------++-----------+
|       col1||       col2|
+-----------++-----------+
|          B||          A|
|          A||          A|
|          A||          A|
|          C||          B|
|          A||          A|
+-----------++-----------+

现在我想用dict中定义的键值对替换col1的所有值。

期望的输出:

+-----------++-----------+
|       col1||       col2|
+-----------++-----------+
|          2||          A|
|          1||          A|
|          1||          A|
|          3||          B|
|          1||          A|
+-----------++-----------+

我试过

df.na.replace(dict, 1).show()

但这也取代了col2上的值,它们将保持不变。

感谢您的帮助。 问候:)

4 个答案:

答案 0 :(得分:10)

您的数据:

print df
DataFrame[col1: string, col2: string]
df.show()   
+----+----+
|col1|col2|
+----+----+
|   B|   A|
|   A|   A|
|   A|   A|
|   C|   B|
|   A|   A|
+----+----+

diz = {"A":1, "B":2, "C":3}

将字典的值从整数转换为字符串,以便不会出现替换不同类型的错误:

diz = {k:str(v) for k,v in zip(diz.keys(),diz.values())}

print diz
{'A': '1', 'C': '3', 'B': '2'}

替换col1的值

df2 = df.na.replace(diz,1,"col1")
print df2
DataFrame[col1: string, col2: string]

df2.show()
+----+----+
|col1|col2|
+----+----+
|   2|   A|
|   1|   A|
|   1|   A|
|   3|   B|
|   1|   A|
+----+----+

如果需要将值从String转换为Integer

from pyspark.sql.types import *

df3 = df2.select(df2["col1"].cast(IntegerType()),df2["col2"]) 
print df3
DataFrame[col1: int, col2: string]

df3.show()
+----+----+
|col1|col2|
+----+----+
|   2|   A|
|   1|   A|
|   1|   A| 
|   3|   B|
|   1|   A|
+----+----+

答案 1 :(得分:0)

在替换df中第1列的值之前,我必须自动生成字典(给定许多键)。这样做如下:

keys =sorted(df.select('col1').rdd.flatMap(lambda x: x).distinct().collect())

keys
['A', 'B', 'C']

import numpy

maxval = len(keys)
values = list(numpy.array(list(range(maxval)))+1)

values
[1, 2, 3]

确保(as titiro89 mentions above)的“新”值的类型与“旧”值的类型(在这种情况下为字符串)

dct = {k:str(v) for k,v in zip(keys,values)}
print(dct)

{'A': '1', 'B': '2', 'C': '3'}

df2 = df.replace(dct,1,"'col1'")

答案 2 :(得分:0)

我相信您的问题是使用Spark广播变量的用例。

签出https://spark.apache.org/docs/2.4.0/rdd-programming-guide.html#broadcast-variables

答案 3 :(得分:0)

您还可以创建一个简单的lambda函数来获取字典值并更新数据框列。

+----+----+
|col1|col2|
+----+----+
|   B|   A|
|   A|   A|
|   A|   A|
|   A|   A|
|   C|   B|
|   A|   A|
+----+----+

dict = {'A':1, 'B':2, 'C':3}
from pyspark.sql.functions import udf
from pyspark.sql.types import IntegerType

user_func =  udf (lambda x: dict.get(x), IntegerType())
newdf = df.withColumn('col1',user_func(df.col1))

>>> newdf.show();
+----+----+
|col1|col2|
+----+----+
|   2|   A|
|   1|   A|
|   1|   A|
|   1|   A|
|   3|   B|
|   1|   A|
+----+----+

我希望这也行得通!