如何使用udfs实现自定义爆炸功能,以便我们可以获得有关项目的额外信息?例如,与项目一起,我希望有项目'指数。
我不知道怎么做的部分是当udf返回多个值时我们应该将这些值作为单独的行放置。
答案 0 :(得分:7)
如果您需要自定义爆炸功能,那么您需要编写获取数组并返回数组的UDF。例如,这个DF:
df = spark.createDataFrame([(['a', 'b', 'c'], ), (['d', 'e'],)], ['array'])
df.show()
+---------+
| array|
+---------+
|[a, b, c]|
| [d, e]|
+---------+
添加索引并展开结果的函数可能如下所示:
from pyspark.sql.types import *
value_with_index = StructType([
StructField('index', IntegerType()),
StructField('letter', StringType())
])
add_indices = udf(lambda arr: list(zip(range(len(arr)), arr)), ArrayType(value_with_index))
df.select(explode(add_indices('array'))).select('col.index', 'col.letter').show()
+-----+------+
|index|letter|
+-----+------+
| 0| a|
| 1| b|
| 2| c|
| 0| d|
| 1| e|
+-----+------+
答案 1 :(得分:1)
在Spark v.2.1 +中,有pyspark.sql.functions.posexplode()
会爆炸数组并提供索引:
使用与@Mariusz相同的示例:
df.show()
#+---------+
#| array|
#+---------+
#|[a, b, c]|
#| [d, e]|
#+---------+
df.select(f.posexplode('array')).show()
#+---+---+
#|pos|col|
#+---+---+
#| 0| a|
#| 1| b|
#| 2| c|
#| 0| d|
#| 1| e|
#+---+---+