一次评估多个过滤器

时间:2017-07-23 21:53:59

标签: scala apache-spark spark-dataframe

我创建了下面的rdd,我需要在同一个数据集上执行一系列过滤器来派生不同的计数器和聚合。

有没有办法可以在一次通过中应用这些过滤器和计算聚合,避免火花多次遍历同一数据集?

val res = df.rdd.map(row => {
    // ............... Generate data here for each row.......
})

res.persist(StorageLevel.MEMORY_AND_DISK)
val all = res.count()

val stats1 = res.filter(row => row.getInt(1) > 0)
val stats1Count = stats1.count()
val stats1Agg = stats1.map(r => r.getInt(1)).mean()

val stats2 = res.filter(row => row.getInt(2) > 0)
val stats2Count = stats2.count()
val stats2Agg = stats2.map(r => r.getInt(2)).mean()

1 个答案:

答案 0 :(得分:0)

您可以使用聚合:

 case class Stats(count: Int = 0, sum: Int = 0) {
     def mean = sum/count
     def +(s: Stats): Stats = Stats(count + s.count, sum + s.sum)
     def <- (n: Int) = if(n > 0) copy(count + 1, sum + n) else this 
 }

 val (stats1, stats2) = res.aggregate(Stats() -> Stats()) (
   { (s, row) => (s._1 <- row.getInt(1), s._2 <- row.getInt(2)) },
   { _ + _ }
 )

 val (stat1Count, stats1Agg, stats2Count, stats2Agg) = (stats1.count, stats1.mean, stats2.count, stats2.mean)