我有一个RDD,其分区包含可以轻松转换为行列表的元素(pandas数据帧)。把它想象成这样的东西
rows_list = []
for word in 'quick brown fox'.split():
rows = []
for i,c in enumerate(word):
x = ord(c) + i
row = pyspark.sql.Row(letter=c, number=i, importance=x)
rows.append(row)
rows_list.append(rows)
rdd = sc.parallelize(rows_list)
rdd.take(2)
给出了
[[Row(importance=113, letter='q', number=0),
Row(importance=118, letter='u', number=1),
Row(importance=107, letter='i', number=2),
Row(importance=102, letter='c', number=3),
Row(importance=111, letter='k', number=4)],
[Row(importance=98, letter='b', number=0),
Row(importance=115, letter='r', number=1),
Row(importance=113, letter='o', number=2),
Row(importance=122, letter='w', number=3),
Row(importance=114, letter='n', number=4)]]
我想把它变成Spark DataFrame。我希望我能做到
rdd.toDF()
但是这给了一个无用的结构
DataFrame[_1: struct<importance:bigint,letter:string,number:bigint>,
_2: struct<importance:bigint,letter:string,number:bigint>,
_3: struct<importance:bigint,letter:string,number:bigint>,
_4: struct<importance:bigint,letter:string,number:bigint>,
_5: struct<importance:bigint,letter:string,number:bigint>]
我真正想要的是一个3列的DataFrame,例如这个
desired_df = sql_context.createDataFrame(sum(rows_list, []))
这样我就可以执行
之类的操作了desired_df.agg(pyspark.sql.functions.sum('number')).take(1)
得到答案23。
正确的方法是什么?
答案 0 :(得分:2)
当你需要行的RDD时,你有一个行列表的RDD;您可以使用rdd
展平flatMap
,然后将其转换为数据框:
rdd.flatMap(lambda x: x).toDF().show()
+----------+------+------+
|importance|letter|number|
+----------+------+------+
| 113| q| 0|
| 118| u| 1|
| 107| i| 2|
| 102| c| 3|
| 111| k| 4|
| 98| b| 0|
| 115| r| 1|
| 113| o| 2|
| 122| w| 3|
| 114| n| 4|
| 102| f| 0|
| 112| o| 1|
| 122| x| 2|
+----------+------+------+
import pyspark.sql.functions as F
rdd.flatMap(lambda x: x).toDF().agg(F.sum('number')).show()
+-----------+
|sum(number)|
+-----------+
| 23|
+-----------+