总和返回“ col应该是列错误”的另一列

时间:2018-12-19 10:53:15

标签: pyspark pyspark-sql

我正在尝试添加一个新列,该列基于ID列中的相应ID来显示一个double的总和(要累加的总和)。但是,这目前引发“ col应该是列错误”

df = df.withColumn('sum_column', (df.groupBy('id').agg({'thing_to_sum': 'sum'})))

示例数据集:

| id | thing_to_sum | sum_column |
|----|--------------|------------
| 1  | 5            | 7          |
| 1  | 2            | 7          |
| 2  | 4            | 4          |

在此方面的任何帮助将不胜感激。

任何最有效的方法参考也将不胜感激。

2 个答案:

答案 0 :(得分:1)

Think i found the solution to my own question but advice would still be appreciated:

sum_calc = F.sum(df.thing_to_sum).over(Window.partitionBy("id"))
df = df.withColumn("sum_column", sum_calc)

答案 1 :(得分:1)

您可以将任何DataFrame注册为临时表,以通过SQLContext.sql对其进行查询。

myValues = [(1,5),(1,2),(2,4),(2,3),(2,1)]
df = sqlContext.createDataFrame(myValues,['id','thing_to_sum'])
df.show()
+---+------------+
| id|thing_to_sum|
+---+------------+
|  1|           5|
|  1|           2|
|  2|           4|
|  2|           3|
|  2|           1|
+---+------------+
df.registerTempTable('table_view')
df1=sqlContext.sql(
    'select id, thing_to_sum, sum(thing_to_sum) over (partition by id) as sum_column from table_view'
)
df1.show()
+---+------------+----------+
| id|thing_to_sum|sum_column|
+---+------------+----------+
|  1|           5|         7|
|  1|           2|         7|
|  2|           4|         8|
|  2|           3|         8|
|  2|           1|         8|
+---+------------+----------+