如何使用pyspark数据帧查找std dev分区或分组数据?

时间:2016-11-18 14:12:15

标签: python apache-spark pyspark spark-dataframe

代码:

w = Window().partitionBy("ticker").orderBy("date")
x = s_df.withColumn("daily_return", (col("close") - lag("close", 1).over(w)) / lag("close", 1).over(w))

s_df的样子:

+----------+------+------+------+------+--------+------+
|      date|  open|  high|   low| close|  volume|ticker|
+----------+------+------+------+------+--------+------+
|2016-11-02| 111.4|112.35|111.23|111.59|28331709|  AAPL|
|2016-11-01|113.46|113.77|110.53|111.49|43825812|  AAPL|
|2016-10-31|113.65|114.23| 113.2|113.54|26419398|  AAPL|
+----------+------+------+------+------+--------+------+

X看起来像什么:

+----------+--------------------+
|      date|   avg(daily_return)|
+----------+--------------------+
|2015-12-28|0.004124786535090563|
|2015-11-20|0.006992226387807268|
|2015-12-29| 0.01730500286123971|

我想找到每组代码的avg(daily_return)的标准偏差。

我尝试了什么:

x.agg(stddev("avg(daily_return)")).over(w)

我收到此错误:

AttributeError: 'DataFrame' object has no attribute 'over'

我正在尝试做的不可能,还是有另一种方法可以做到这一点?

enter image description here

2 个答案:

答案 0 :(得分:4)

tickerdata的维度不同,因此您不能将这两个聚合在一起。你可以:

s_df_w_daily_rets = s_df.withColumn("daily_return", 
    (col("close") - lag("close", 1).over(w)) / lag("close", 1).over(w))

s_df_w_daily_rets.groupBy("date").agg(avg("daily_return"))
s_df_w_daily_rets.groupBy("ticker").agg(stddev("daily_return"))

groupBy("date","ticker").agg(..)没有意义,因为您只有一个代码dateticker组,标准偏差将是未定义的。

答案 1 :(得分:0)

你可以

x.groupBy("A").agg(stddev("D"))