PySpark DataFrame:自定义爆炸功能

时间:2017-09-12 19:20:21

标签: pyspark

如何使用udfs实现自定义爆炸功能,以便我们可以获得有关项目的额外信息?例如,与项目一起,我希望有项目'指数。

我不知道怎么做的部分是当udf返回多个值时我们应该将这些值作为单独的行放置。

2 个答案:

答案 0 :(得分:7)

如果您需要自定义爆炸功能,那么您需要编写获取数组并返回数组的UDF。例如,这个DF:

df = spark.createDataFrame([(['a', 'b', 'c'], ), (['d', 'e'],)], ['array'])
df.show()
+---------+
|    array|
+---------+
|[a, b, c]|
|   [d, e]|
+---------+

添加索引并展开结果的函数可能如下所示:

from pyspark.sql.types import *
value_with_index = StructType([
    StructField('index', IntegerType()),
    StructField('letter', StringType())
])
add_indices = udf(lambda arr: list(zip(range(len(arr)), arr)), ArrayType(value_with_index))
df.select(explode(add_indices('array'))).select('col.index', 'col.letter').show()
+-----+------+
|index|letter|
+-----+------+
|    0|     a|
|    1|     b|
|    2|     c|
|    0|     d|
|    1|     e|
+-----+------+

答案 1 :(得分:1)

在Spark v.2.1 +中,有pyspark.sql.functions.posexplode()会爆炸数组并提供索引:

使用与@Mariusz相同的示例:

df.show()
#+---------+
#|    array|
#+---------+
#|[a, b, c]|
#|   [d, e]|
#+---------+

df.select(f.posexplode('array')).show()
#+---+---+
#|pos|col|
#+---+---+
#|  0|  a|
#|  1|  b|
#|  2|  c|
#|  0|  d|
#|  1|  e|
#+---+---+