我在pyspark中遇到了数据转换任务。 我想用df中指定的键值对替换df中一列的所有值。
dict = {'A':1, 'B':2, 'C':3}
我的df看起来像这样:
+-----------++-----------+
| col1|| col2|
+-----------++-----------+
| B|| A|
| A|| A|
| A|| A|
| C|| B|
| A|| A|
+-----------++-----------+
现在我想用dict中定义的键值对替换col1的所有值。
期望的输出:
+-----------++-----------+
| col1|| col2|
+-----------++-----------+
| 2|| A|
| 1|| A|
| 1|| A|
| 3|| B|
| 1|| A|
+-----------++-----------+
我试过
df.na.replace(dict, 1).show()
但这也取代了col2上的值,它们将保持不变。
感谢您的帮助。 问候:)
答案 0 :(得分:10)
您的数据:
print df
DataFrame[col1: string, col2: string]
df.show()
+----+----+
|col1|col2|
+----+----+
| B| A|
| A| A|
| A| A|
| C| B|
| A| A|
+----+----+
diz = {"A":1, "B":2, "C":3}
将字典的值从整数转换为字符串,以便不会出现替换不同类型的错误:
diz = {k:str(v) for k,v in zip(diz.keys(),diz.values())}
print diz
{'A': '1', 'C': '3', 'B': '2'}
替换col1的值
df2 = df.na.replace(diz,1,"col1")
print df2
DataFrame[col1: string, col2: string]
df2.show()
+----+----+
|col1|col2|
+----+----+
| 2| A|
| 1| A|
| 1| A|
| 3| B|
| 1| A|
+----+----+
如果需要将值从String转换为Integer
from pyspark.sql.types import *
df3 = df2.select(df2["col1"].cast(IntegerType()),df2["col2"])
print df3
DataFrame[col1: int, col2: string]
df3.show()
+----+----+
|col1|col2|
+----+----+
| 2| A|
| 1| A|
| 1| A|
| 3| B|
| 1| A|
+----+----+
答案 1 :(得分:0)
在替换df中第1列的值之前,我必须自动生成字典(给定许多键)。这样做如下:
keys =sorted(df.select('col1').rdd.flatMap(lambda x: x).distinct().collect())
keys
['A', 'B', 'C']
import numpy
maxval = len(keys)
values = list(numpy.array(list(range(maxval)))+1)
values
[1, 2, 3]
确保(as titiro89 mentions above)
的“新”值的类型与“旧”值的类型(在这种情况下为字符串)
dct = {k:str(v) for k,v in zip(keys,values)}
print(dct)
{'A': '1', 'B': '2', 'C': '3'}
df2 = df.replace(dct,1,"'col1'")
答案 2 :(得分:0)
我相信您的问题是使用Spark广播变量的用例。
签出https://spark.apache.org/docs/2.4.0/rdd-programming-guide.html#broadcast-variables
答案 3 :(得分:0)
您还可以创建一个简单的lambda函数来获取字典值并更新数据框列。
+----+----+
|col1|col2|
+----+----+
| B| A|
| A| A|
| A| A|
| A| A|
| C| B|
| A| A|
+----+----+
dict = {'A':1, 'B':2, 'C':3}
from pyspark.sql.functions import udf
from pyspark.sql.types import IntegerType
user_func = udf (lambda x: dict.get(x), IntegerType())
newdf = df.withColumn('col1',user_func(df.col1))
>>> newdf.show();
+----+----+
|col1|col2|
+----+----+
| 2| A|
| 1| A|
| 1| A|
| 1| A|
| 3| B|
| 1| A|
+----+----+
我希望这也行得通!