在数据框SPARK上计算过滤的项目

时间:2018-04-10 12:12:06

标签: scala apache-spark dataframe bigdata

我有以下数据框:df

在某些时候,我需要根据时间戳(毫秒)筛选出项目。 但是,对我来说,保存过滤记录的数量非常重要(如果记录太多我想失败的话) 天真我能做到:

======Lots of calculations on df ======
val df_filtered = df.filter($"ts" >= startDay && $"ts"  <= endDay)
val filtered_count = df.count - df_filtered.count

然而,感觉完全矫枉过正,因为SPARK将执行整个执行树3次(过滤器和2次计数)。 Hadoop MapReduce中的这个任务非常简单,因为我可以为每个过滤的行维护计数器。 有更有效的方法,我只能找到累加器,但我无法将其连接到过滤器。

建议的方法是在过滤器之前缓存df但是由于DF大小,我更喜欢这个选项作为最后的手段。

1 个答案:

答案 0 :(得分:1)

Spark 1.6.0代码:

import org.apache.spark.sql.SQLContext
import org.apache.spark.{SparkConf, SparkContext}

object Main {

  val conf = new SparkConf().setAppName("myapp").setMaster("local[*]")
  val sc = new SparkContext(conf)
  val sqlContext = new SQLContext(sc)

  case class xxx(a: Int, b: Int)

  def main(args: Array[String]): Unit = {

    val df = sqlContext.createDataFrame(sc.parallelize(Seq(xxx(1, 1), xxx(2, 2), xxx(3,3))))

    val acc = sc.accumulator[Long](0)

    val filteredRdd = df.rdd.filter(r => {
      if (r.getAs[Int]("a") > 2) {
        true
      } else {
        acc.add(1)
        false
      }
    })

    val filteredRddDf = sqlContext.createDataFrame(filteredRdd, df.schema)

    filteredRddDf.show()

    println(acc.value)
  }
}

Spark 2.x.x代码:

import org.apache.spark.sql.SparkSession

object Main {

  val ss = SparkSession.builder().master("local[*]").getOrCreate()
  val sc = ss.sparkContext

  case class xxx(a: Int, b: Int)

  def main(args: Array[String]): Unit = {

    val df = ss.createDataFrame(sc.parallelize(Seq(xxx(1, 1), xxx(2, 2), xxx(3,3))))

    val acc = sc.longAccumulator

    val filteredDf = df.filter(r => {
      if (r.getAs[Int]("a") > 2) {
        true
      } else {
        acc.add(1)
        false
      }
    }).toDF()


    filteredDf.show()

    println(acc.value)

  }
}