Spark中的案例陈述

时间:2016-10-17 09:27:23

标签: scala apache-spark spark-dataframe rdd

我正在编写Spark代码,我需要将(String,(String,String))类型的RDD转换为((String,String),String)。

我有以下输入文本文件:

Language,Language-code,TotalViewsInThatLang
English,en,10965376,"Main_Page",2938355
Russian,ru,1925718,"%D0%97%D0%B0%D0%B3%D0%BB,915495
Spanish,es,1010810,"Wikipedia:Portada",13603

我创建了一个RDD,如下所示:

val line = sc.textFile(inputFile)
val nrdd = line.map(x=>(x.split(",")(0),(x.split(",")(1),x.split(",")(2))))
nrdd: org.apache.spark.rdd.RDD[(String, (String, String))] = MapPartitionsRDD[2] at map at <console>:26

由此我想使用case函数创建((String,String),String)类型的RDD。

如何使用case中的map语句执行此操作? 的修改
当我尝试使用案例函数时,我收到以下错误:

scala> val frdd = nrdd.map( {case(x,(y,z))=>((x,y),z))}) 
<console>:1: error: ';' expected but ')' found.
val frdd = nrdd.map({case(x,(y,z))=>((x,y),z))})
                                             ^      

2 个答案:

答案 0 :(得分:3)

除非我误解了你的问题,否则你想要这个:

val list: List[((String, String), String)] = List((("a1", "b1"), "c1"), (("a2", "b2"), "c2"))
val res = list.map { case ((a, b), c) => (a, (b, c)) }

println(res) // List((a1,(b1,c1)), (a2,(b2,c2)))

答案 1 :(得分:0)

由于您的RDD是配对RDD,您可以使用swap中的Keyed RDD

示例代码:

val keyRDD = sc.parallelize(List((("a1", "b1"), "c1"), (("a2", "b2"), "c2")), 2)
val swappedRDD = keyRDD.map(_.swap)
swappedRDD.foreach(x => println(x))