在RDD-spark scala中执行字段的重新排列

时间:2016-12-18 03:03:03

标签: scala apache-spark

我有一个类型为

的RDD
  

rdd [(String,String,String)] //这是指格式记录   (设备名,日期,文本)

现在我需要执行(devicename,date)的groupbyKey。所以我想改变

  

rdd [(String,String,String)]到rdd [(String,String),String)]

但我无法转移。我曾尝试使用

val namedatekeyrecord=ip.map{

x =>

(a,b,c)=>((a,b),c)

}

但它不起作用并抛出错误"缺少参数类型"。

你能帮助我吗?

由于

1 个答案:

答案 0 :(得分:0)

傻傻的,

我忘了使用地图抽象:

val namedatekeyrecord=ip.map{

x =>

((x._1,x._2),x._3)

}