将生成的Rdd转换为HashMap

时间:2016-06-08 09:04:50

标签: scala apache-spark hashmap

我需要将rdd转换为hashMap。我在RDD中有数据如下:

(水果,名单(苹果,香蕉,芒果))(蔬菜,名单(马铃薯,番茄))

我目前正在使用以下代码

object JsonParse {

 def main(args: Array[String]){


val sc = new SparkContext(new SparkConf().setAppName("JsonParse").setMaster("local"))

val arr = Array(("FRUIT",List("Apple","Banana","Mango")),("VEGETABLE", List("Potato","Tomato")))

val Rdd = sc.parallelize(arr)

如何进一步继续?

2 个答案:

答案 0 :(得分:4)

rdd.collectAsMap() // Map(VEGETABLE -> List(Potato, Tomato), FRUIT -> List(Apple, Banana, Mango))

答案 1 :(得分:1)

尝试

rdd.collect.toMap

将其转换为Map。操作collectrdd的内容本地收集到主节点。