我需要一种每周汇总数据集的方法。这是我的数据集
| date|organization_id|media_package_id|event_uuid |
+----------+---------------+----------------+-----------+
|2016-10-25| 1| 11| 76304d|
|2016-10-25| 1| 11| e6285b|
|2016-10-22| 2| 21| 16c04d|
|2016-10-22| 2| 21| 17804d|
|2016-10-22| 2| 21| 18904x|
|2016-10-21| 2| 21| 51564q|
|2016-10-07| 4| 98| 12874t|
|2016-10-05| 4| 98| 11234d|
+----------+---------------+----------------+-----------+
让我们假设每天都有Spark作业运行以获得所需的聚合结果。并且我希望结果以一周为基础,例如在聚合之后的上述数据集。
| date|organization_id|media_package_id| count|
+----------+---------------+----------------+-----------+
|2016-10-24| 1| 11| 2|
|2016-10-17| 2| 21| 4|
|2016-10-03| 4| 98| 2|
+----------+---------------+----------------+-----------+
如果您看到日期列,则会在一周的第一天(我认为这是最好的方式)
我以某种方式设法每天进行聚合。这就是我的做法
val data = MongoSupport.load(spark, "sampleCollection")
val dataForDates = data.filter(dataForDates("date").isin(dates : _*))
val countByDate = proofEventsForDates.groupBy("DATE", "ORGANIZATION_ID", "MEDIA_PACKAGE_ID")
.agg(count("EVENT_UUID").as("COUNT"))
val finalResult = impressionsByDate
.select(
col("DATE").as("date"),
col("ORGANIZATION_ID").as("organization_id"),
col("MEDIA_PACKAGE_ID").as("media_package_id"),
col("COUNT").as("count")
)
这里,在开始过滤掉数据集时,我传递了一个特殊的dates
列表,其中包含至少约一个月的日期。我得到的结果是(这不是我想要的)
| date|organization_id|media_package_id| count|
+----------+---------------+----------------+-----------+
|2016-10-25| 1| 11| 2|
|2016-10-22| 2| 21| 3|
|2016-10-21| 2| 21| 1|
|2016-10-07| 2| 21| 1|
|2016-10-05| 2| 21| 1|
+----------+---------------+----------------+-----------+
在这里,我不知道每周聚合这个数据集。
答案 0 :(得分:3)
假设您的date
列已经是类date
,您可以使用函数year()
和weekofyear()
来提取聚合的缺失分组列。
import org.apache.spark.sql.functions.weekofyear
import org.apache.spark.sql.functions.year
(df
.withColumn("week_nr", weekofyear($"date"))
.withColumn("year", year($"date"))
.groupBy("year",
"week_nr",
"organization_id",
"media_package_id")
.count().orderBy(desc("week_nr"))).show
+----+-------+---------------+----------------+-----+
|year|week_nr|organization_id|media_package_id|count|
+----+-------+---------------+----------------+-----+
|2016| 43| 1| 11| 2|
|2016| 42| 2| 21| 4|
|2016| 40| 4| 98| 2|
+----+-------+---------------+----------------+-----+