Scala RDD按范围计算

时间:2017-12-21 09:20:31

标签: scala apache-spark rdd iterable

我需要"提取" Iterable [MyObject]中包含的一些数据(它是groupBy之前的RDD [MyObject])。

我的初始RDD [MyObject]:

|-----------|---------|----------|
| startCity | endCity | Customer |
|-----------|---------|----------|
| Paris     | London  | ID | Age |
|           |         |----|-----|
|           |         |  1 | 1   |
|           |         |----|-----|
|           |         |  2 | 1   |
|           |         |----|-----|
|           |         |  3 | 50  |
|-----------|---------|----------|
| Paris     | London  | ID | Age |
|           |         |----|-----|
|           |         |  5 | 40  |
|           |         |----|-----|
|           |         |  6 | 41  |
|           |         |----|-----|
|           |         |  7 | 2   |
|-----------|---------|----|-----|
| New-York  | Paris   | ID | Age |
|           |         |----|-----|
|           |         |  9 | 15  |
|           |         |----|-----|
|           |         |  10| 16  |
|           |         |----|-----|
|           |         |  11| 46  |
|-----------|---------|----|-----|
| New-York  | Paris   | ID | Age |
|           |         |----|-----|
|           |         |  13| 7   |
|           |         |----|-----|
|           |         |  14| 9   |
|           |         |----|-----|
|           |         |  15| 60  |
|-----------|---------|----|-----|
| Barcelona | London  | ID | Age |
|           |         |----|-----|
|           |         |  17| 66  |
|           |         |----|-----|
|           |         |  18| 53  |
|           |         |----|-----|
|           |         |  19| 11  |
|-----------|---------|----|-----|

我需要按年龄范围和groupBy startCity - endCity

计算它们

最终结果应为:

|-----------|---------|-------------|
| startCity | endCity | Customer    |
|-----------|---------|-------------|
| Paris     | London  | Range| Count|
|           |         |------|------|
|           |         |0-2   | 3    |
|           |         |------|------|
|           |         |3-18  | 0    |
|           |         |------|------|
|           |         |19-99 | 3    |
|-----------|---------|-------------|
| New-York  | Paris   | Range| Count|
|           |         |------|------|
|           |         |0-2   | 0    |
|           |         |------|------|
|           |         |3-18  | 3    |
|           |         |------|------|
|           |         |19-99 | 2    |
|-----------|---------|-------------|
| Barcelona | London  | Range| Count|
|           |         |------|------|
|           |         |0-2   | 0    |
|           |         |------|------|
|           |         |3-18  | 1    |
|           |         |------|------|
|           |         |19-99 | 2    |
|-----------|---------|-------------|

目前我通过计算相同数据的3倍(第一次0-2范围,然后是10-20,然后是21-99)。

喜欢:

Iterable[MyObject] ite

ite.count(x => x.age match {
    case Some(age) => { age >= 0 && age < 2 }
}

它的工作是给我一个整数,但根本没有效率我认为因为我必须多次计算,最好的方法是什么?

由于

编辑:Customer对象是一个案例类

2 个答案:

答案 0 :(得分:2)

def computeRange(age : Int) = 
    if(age<=2)
        "0-2"
    else if(age<=10)
        "2-10"
    // etc, you get the idea

然后,RDD为case class MyObject(id : String, age : Int)

rdd
   .map(x=> computeRange(x.age) -> 1)
   .reduceByKey(_+_)

修改 如果你需要按某些列分组,你可以这样做,前提是你有一个RDD [(SomeColumns,Iterable [MyObject])]。以下几行将为您提供一个地图,将每个“范围”与其出现次数相关联。

def computeMapOfOccurances(list : Iterable[MyObject]) : Map[String, Int] =
    list
        .map(_.age)
        .map(computeRange)
        .groupBy(x=>x)
        .mapValues(_.size)

val result1 = rdd
    .mapValues( computeMapOfOccurances(_))

如果您需要展平数据,可以写下:

val result2 = result1
    .flatMapValues(_.toSeq)    

答案 1 :(得分:1)

假设您Customer[Object]case class,如下所示

case class Customer(ID: Int, Age: Int)

您的RDD[MyObject]rdd case class,如下所示

case class MyObject(startCity: String, endCity: String, customer: List[Customer])

所以使用上面case class es你应该输入(你有表格格式),如下所示

MyObject(Paris,London,List(Customer(1,1), Customer(2,1), Customer(3,50)))
MyObject(Paris,London,List(Customer(5,40), Customer(6,41), Customer(7,2)))
MyObject(New-York,Paris,List(Customer(9,15), Customer(10,16), Customer(11,46)))
MyObject(New-York,Paris,List(Customer(13,7), Customer(14,9), Customer(15,60)))
MyObject(Barcelona,London,List(Customer(17,66), Customer(18,53), Customer(19,11)))

你还提到在分组后你有Iterable[MyObject],这相当于下面的步骤

val groupedRDD = rdd.groupBy(myobject => (myobject.startCity, myobject.endCity))   //groupedRDD: org.apache.spark.rdd.RDD[((String, String), Iterable[MyObject])] = ShuffledRDD[2] at groupBy at worksheetTest.sc:23

因此,您要做的下一步是使用mapValues遍历Iterable[MyObject],然后计算属于每个范围的age,最后转换为输出你需要如下

val finalResult = groupedRDD.mapValues(x => {
  val rangeAge = Map("0-2" -> 0, "3-18" -> 0, "19-99" -> 0)
  val list = x.flatMap(y => y.customer.map(z => z.Age)).toList
  updateCounts(list, rangeAge).map(x => CustomerOut(x._1, x._2)).toList
})

其中updateCounts递归函数

def updateCounts(ageList: List[Int], map: Map[String, Int]) : Map[String, Int] = ageList match{
  case head :: tail => if(head >= 0 && head < 3) {
    updateCounts(tail, map ++ Map("0-2" -> (map("0-2")+1)))
  } else if(head >= 3 && head < 19) {
    updateCounts(tail, map ++ Map("3-18" -> (map("3-18")+1)))
  } else updateCounts(tail, map ++ Map("19-99" -> (map("19-99")+1)))
  case Nil => map
}

CustomerOut是另一个case class

case class CustomerOut(Range: String, Count: Int)

所以finalResult如下所示

((Barcelona,London),List(CustomerOut(0-2,0), CustomerOut(3-18,1), CustomerOut(19-99,2)))
((New-York,Paris),List(CustomerOut(0-2,0), CustomerOut(3-18,4), CustomerOut(19-99,2)))
((Paris,London),List(CustomerOut(0-2,3), CustomerOut(3-18,0), CustomerOut(19-99,3)))