我已经从SQLServer表加载了一个DataFrame。它看起来像这样:
>>> df.show()
+--------------------+----------+
| timestamp| Value |
+--------------------+----------+
|2015-12-02 00:10:...| 652.8|
|2015-12-02 00:20:...| 518.4|
|2015-12-02 00:30:...| 524.6|
|2015-12-02 00:40:...| 382.9|
|2015-12-02 00:50:...| 461.6|
|2015-12-02 01:00:...| 476.6|
|2015-12-02 01:10:...| 472.6|
|2015-12-02 01:20:...| 353.0|
|2015-12-02 01:30:...| 407.9|
|2015-12-02 01:40:...| 475.9|
|2015-12-02 01:50:...| 513.2|
|2015-12-02 02:00:...| 569.0|
|2015-12-02 02:10:...| 711.4|
|2015-12-02 02:20:...| 457.6|
|2015-12-02 02:30:...| 392.0|
|2015-12-02 02:40:...| 459.5|
|2015-12-02 02:50:...| 560.2|
|2015-12-02 03:00:...| 252.9|
|2015-12-02 03:10:...| 228.7|
|2015-12-02 03:20:...| 312.2|
+--------------------+----------+
现在我想按小时(或者一天,一个月或者......)对值进行分组(和求和),但我真的不知道如何做到这一点。< / p>
我是如何加载DataFrame的。我觉得这不是正确的做法,但是:
query = """
SELECT column1 AS timestamp, column2 AS value
FROM table
WHERE blahblah
"""
sc = SparkContext("local", 'test')
sqlctx = SQLContext(sc)
df = sqlctx.load(source="jdbc",
url="jdbc:sqlserver://<CONNECTION_DATA>",
dbtable="(%s) AS alias" % query)
可以吗?
答案 0 :(得分:19)
自1.5.0以来,Spark提供了许多功能,如dayofmonth
,hour
,month
或year
,可以在日期和时间戳上运行。因此,如果timestamp
是TimestampType
,那么您只需要一个正确的表达式。例如:
from pyspark.sql.functions import hour, mean
(df
.groupBy(hour("timestamp").alias("hour"))
.agg(mean("value").alias("mean"))
.show())
## +----+------------------+
## |hour| mean|
## +----+------------------+
## | 0|508.05999999999995|
## | 1| 449.8666666666666|
## | 2| 524.9499999999999|
## | 3|264.59999999999997|
## +----+------------------+
1.5.0之前的最佳选择是使用HiveContext
和Hive UDF与selectExpr
:
df.selectExpr("year(timestamp) AS year", "value").groupBy("year").sum()
## +----+---------+----------+
## |year|SUM(year)|SUM(value)|
## +----+---------+----------+
## |2015| 40300| 9183.0|
## +----+---------+----------+
或原始SQL:
df.registerTempTable("df")
sqlContext.sql("""
SELECT MONTH(timestamp) AS month, SUM(value) AS values_sum
FROM df
GROUP BY MONTH(timestamp)""")
请记住,聚合是由Spark执行的,不会被推送到外部源。通常它是一种期望的行为,但有时您可能更喜欢将聚合作为子查询来执行,以限制数据传输。
答案 1 :(得分:2)
此外,您可以使用date_format创建所需的任何时间段。 Groupby特定日期:
from pyspark.sql import functions as F
df.select(F.date_format('timestamp','yyyy-MM-dd').alias('day')).groupby('day').count().show()
Groupby特定月份(只需更改格式):
df.select(F.date_format('timestamp','yyyy-MM').alias('month')).groupby('month').count().show()
答案 2 :(得分:0)
对于pyspark> = 2.2:
from pyspark.sql.functions import to_date
df.groupBy(to_date('created_time').al)