Pyspark collect_list奇怪的行为

时间:2018-04-10 12:13:40

标签: python pyspark pyspark-sql

我遇到了collect_list函数的奇怪行为。

这是我的代码:

sqlContext = HiveContext(sc)

test = sc.parallelize([("uid1", [{"A":"a_string","B":1,"C":10},{"A":"another_string", "B":2,"C":20}]),
                   ("uid1", [{"A":"another_string","B":0,"C":5}, {"A":"last_string","B":3,"C":3}])])


schema = StructType([StructField("uid", StringType(), False),
                 StructField("an_array", ArrayType(StructType([StructField("A", StringType(), False),
                                                 StructField("B", IntegerType(), False), 
                                                 StructField("C", IntegerType(), False)]), False), False)
                            ])

df = sqlContext.createDataFrame(test, schema= schema)

df.registerTempTable("test_df")

print(sqlContext.sql("SELECT uid, collect_list(an_array) from test_df group by uid").head(1))

df.groupBy("uid").agg(collect_list(col("an_array"))).head(1)

我想把我的dict列表聚合成一个dicts列表列表。

如果我在Hive中运行查询,我会得到我想要的。 但是对于pyspark,我使用的两种方法都会产生一些非常奇怪的东西:

[Row(uid='uid1', _c1=[Row(a='[a_string, 1, 10]', b=['another_string', 2, 20], c=None), Row(a='[another_string, 0, 5]', b=['last_string', 3, 3], c=None)])]

列表存储在错误的级别。 导致这个问题的是什么?

1 个答案:

答案 0 :(得分:1)

我在Spark 2.2和Spark 2.3上测试您的代码。结果与您的结果不同,并且看起来还可以。

[Row(uid=u'uid1', collect_list(an_array)=[[Row(A=u'a_string', B=1, C=10), Row(A=u'another_string', B=2, C=20)], [Row(A=u'another_string', B=0, C=5), Row(A=u'last_string', B=3, C=3)]])]

与您的相比

[Row(uid='uid1', _c1=[Row(a='[a_string, 1, 10]', b=['another_string', 2, 20], c=None), Row(a='[another_string, 0, 5]', b=['last_string', 3, 3], c=None)])]

也许新版本的Spark已解决了该问题。