在Scala中迭代RDD可迭代

时间:2019-02-01 06:54:53

标签: scala apache-spark key-pair java-pair-rdd

因此,我是Scala的新手,刚开始使用RDD和功能性的Scala操作。

我正在尝试遍历我的Pair RDD的值,并通过应用定义的Var1函数,将Var2返回到average中存储的值的平均值,以便最终返回是Var1的唯一列表,并且每个变量都有一个AvgVar2。我在弄清楚如何迭代这些值时遇到很多麻烦。

* edit:我有以下类型声明:

case class ID: Int,  Var1: Int, Var2: Int extends Serializable

我具有以下功能:

  def foo(rdds: RDD[(ID, Iterable[(Var1, Var2)])]): RDD[(Var1, AvgVar2)] = {

    def average(as: Array[Var2]): AvgVar2 = {
       var sum = 0.0
       var i = 0.0
       while (i < as.length) {
           sum += Var2.val
           i += 1
      }
      sum/i
    }

    //My attempt at Scala
    rdds.map(x=> ((x._1),x._2)).groupByKey().map(x=>average(x._1)).collect()
}

我在Scala的尝试正在尝试执行以下操作:

  1. 将RDD对拆分为可迭代的Var1-Var2的键值对。
  2. Var1键分组,并创建一个关联的Var2数组。
  3. 将我的average函数应用于Var2的每个数组
  4. AvgVar2和关联的Var1作为RDD的集合返回

*编辑:

rdds的一些示例输入数据:

//RDD[(ID,Iterable[(Var1,Var2)...])]
RDD[(1,[(1,3),(1,12),(1,6)])],
RDD[(2,[(2,5),(2,7)])]

一些示例输出数据:

//RDD[(Var1, AvgVar2)]
RDD[(1,7),(2,6)]

*编辑:可运行的Scala代码行:

rdd.map(x => (x._2.map(it => it._1).asInstanceOf[Var1], average(x._2.map(it => it._2).toArray)))

1 个答案:

答案 0 :(得分:1)

考虑ID = Var1,一个简单的.map()就能解决:

def foo(rdds: RDD[(Int, Iterable[(Int, Int)])]): RDD[(Int, Double)] = {

  def average(as: Iterable[(Int, Int)]): Double = {
    as.map(_._2).reduce(_+_)/as.size.toDouble
  }

  rdds.map(x => (x._1, average(x._2)))
}

输出:

val input = sc.parallelize(List((1,Iterable((1,3),(1,12),(1,6))), (2, Iterable((2,5),(2,7)))))

scala> foo(input).collect
res0: Array[(Int, Double)] = Array((1,7.0), (2,6.0))

已编辑:({average()具有相同签名):

def foo(rdds: RDD[(Int, Iterable[(Int, Int)])]): RDD[(Int, Double)] = {

  def average(as: Array[Int]): Double = {
    as.reduce(_+_)/as.size.toDouble
  }

  rdds.map(x => (x._1, average(x._2.map(tuple => tuple._2).toArray)))
}