列表中的Spark scala过滤器元组

时间:2016-09-12 19:40:30

标签: scala apache-spark rdd

我有一个如下所示的Rdd

val m = sc.parallelize(Seq(("a",("x",1)), ("a",("y",2)), ("a",("z",2)), ("b",("x",1)),("b",("y",2))))

我使用下面的groupByKey转换了上面的Rdd

val b = m.groupByKey.mapValues( _.toList)

结果:

(a,List((x,1), (y,2), (z,2)))
(b,List((x,1), (y,2))) 

现在,我想在每个列表中使用最大值过滤元组 所以预期的结果将是

(a,List((y,2), (z,2)))
(b,List((y,2)))

1 个答案:

答案 0 :(得分:2)

考虑给出的顺序是: val m = Seq(("a",("x",1)), ("a",("y",2)), ("a",("z",2)), ("b",("x",1)),("b",("y",2)))

val r1 = 
  m.groupBy(_._1)
   .map { case (k, v) => k -> v.map(_._2) }
   .map { case (k, v) => 
     k -> { 
       val sorted = v.sortWith { case (x, y) => x._2 > y._2 }
       val max = sorted.head._2

       sorted.takeWhile(_._2 == max) 
     }
   }
   .toList

结果如下: r1: List[(String, Seq[(String, Int)])] = List((b,List((y,2))), (a,List((y,2), (z,2))))