我遇到了collect_list函数的奇怪行为。
这是我的代码:
sqlContext = HiveContext(sc)
test = sc.parallelize([("uid1", [{"A":"a_string","B":1,"C":10},{"A":"another_string", "B":2,"C":20}]),
("uid1", [{"A":"another_string","B":0,"C":5}, {"A":"last_string","B":3,"C":3}])])
schema = StructType([StructField("uid", StringType(), False),
StructField("an_array", ArrayType(StructType([StructField("A", StringType(), False),
StructField("B", IntegerType(), False),
StructField("C", IntegerType(), False)]), False), False)
])
df = sqlContext.createDataFrame(test, schema= schema)
df.registerTempTable("test_df")
print(sqlContext.sql("SELECT uid, collect_list(an_array) from test_df group by uid").head(1))
df.groupBy("uid").agg(collect_list(col("an_array"))).head(1)
我想把我的dict列表聚合成一个dicts列表列表。
如果我在Hive中运行查询,我会得到我想要的。 但是对于pyspark,我使用的两种方法都会产生一些非常奇怪的东西:
[Row(uid='uid1', _c1=[Row(a='[a_string, 1, 10]', b=['another_string', 2, 20], c=None), Row(a='[another_string, 0, 5]', b=['last_string', 3, 3], c=None)])]
列表存储在错误的级别。 导致这个问题的是什么?
答案 0 :(得分:1)
我在Spark 2.2和Spark 2.3上测试您的代码。结果与您的结果不同,并且看起来还可以。
[Row(uid=u'uid1', collect_list(an_array)=[[Row(A=u'a_string', B=1, C=10), Row(A=u'another_string', B=2, C=20)], [Row(A=u'another_string', B=0, C=5), Row(A=u'last_string', B=3, C=3)]])]
与您的相比
[Row(uid='uid1', _c1=[Row(a='[a_string, 1, 10]', b=['another_string', 2, 20], c=None), Row(a='[another_string, 0, 5]', b=['last_string', 3, 3], c=None)])]
也许新版本的Spark已解决了该问题。