这里我创建了一个如下的日期框架,
df = spark.createDataFrame([('a',5,'R','X'),('b',7,'G','S'),('c',8,'G','S')],
["Id","V1","V2","V3"])
看起来像是
+---+---+---+---+
| Id| V1| V2| V3|
+---+---+---+---+
| a| 5| R| X|
| b| 7| G| S|
| c| 8| G| S|
+---+---+---+---+
我想添加一个由V1,V2,V3组成的元组列。
结果应该是
+---+---+---+---+-------+
| Id| V1| V2| V3|V_tuple|
+---+---+---+---+-------+
| a| 5| R| X|(5,R,X)|
| b| 7| G| S|(7,G,S)|
| c| 8| G| S|(8,G,S)|
+---+---+---+---+-------+
我尝试使用与Python类似的syntex,但它不起作用:
df.withColumn("V_tuple",list(zip(df.V1,df.V2,df.V3)))
TypeError:zip参数#1必须支持迭代。
任何帮助将不胜感激!
答案 0 :(得分:7)
我来自scala,但我相信python中有类似的方式:
使用sql.functions
包mehtod:
如果您希望使用此三列获得StructType
,请使用struct(cols: Column*): Column
方法,如下所示:
from pyspark.sql.functions import struct
df.withColumn("V_tuple",struct(df.V1,df.V2,df.V3))
但如果你想把它作为一个字符串,你可以像这样使用concat(exprs: Column*): Column
方法:
from pyspark.sql.functions import concat
df.withColumn("V_tuple",concat(df.V1,df.V2,df.V3))
使用第二种方法,您可能需要将列转换为String
s
我不确定python语法,如果语法错误,只需编辑答案。
希望这对你有所帮助。最诚挚的问候
答案 1 :(得分:3)
使用struct
:
from pyspark.sql.functions import struct
df.withColumn("V_tuple", struct(df.V1,df.V2,df.V3))