将Array(Row)的RDD转换为Row的RDD吗?

时间:2019-04-16 07:11:43

标签: scala apache-spark dataframe rdd

我的文件中有此类数据,我想使用Spark进行一些统计。

文件内容:

aaa|bbb|ccc
ddd|eee|fff|ggg

我需要为每行分配一个ID。我将它们读为rdd并使用zipWithIndex()

然后它们应该像:

(0, aaa|bbb|ccc)
(1, ddd|eee|fff|ggg)

我需要使每个与ID关联的字符串。我可以获得Array(Row)的RDD,但不能跳出数组。

我应该如何修改我的代码?

import org.apache.spark.sql.{Row, SparkSession}

val fileRDD = spark.sparkContext.textFile(filePath)
val fileWithIdRDD = fileRDD.zipWithIndex()
// make the line like this: (0, aaa), (0, bbb), (0, ccc)
// each line is a record of Array(Row)
fileWithIdRDD.map(x => {
  val id = x._1
  val str = x._2
  val strArr = str.split("\\|")
  val rowArr = strArr.map(y => {
    Row(id, y)
  }) 
  rowArr 
})

现在看起来像:

[(0, aaa), (0, bbb), (0, ccc)]
[(1, ddd), (1, eee), (1, fff), (1, ggg)]

但是最后我想要:

(0, aaa)
(0, bbb) 
(0, ccc)
(1, ddd)
(1, eee)
(1, fff)
(1, ggg)

1 个答案:

答案 0 :(得分:1)

您只需要展平RDD

yourRDD.flatMap(array => array)

考虑您的代码(内部地图以及id和str的分配中已修复一些错误)

fileWithIdRDD.map(x => {
  val id = x._1
  val str = x._2
  val strArr = str.split("\\|")
  val rowArr = strArr.map(y => {
    Row(id, y)
  }) 
  rowArr 
}).flatMap(array => array)

此处的简单示例:

输入

fileWithIdRDD.collect
res30: Array[(Int, String)] = Array((0,aaa|bbb|ccc), (1,ddd|eee|fff|ggg))

执行

scala> fileWithIdRDD.map(x => {
      val id = x._1
      val str = x._2
      val strArr = str.split("\\|")
        val rowArr = strArr.map(y => {
          Row(id, y)
        })
      rowArr
      }).flatMap(array => array)


res31: org.apache.spark.rdd.RDD[org.apache.spark.sql.Row] = MapPartitionsRDD[17] at flatMap at <console>:35

输出

scala> res31.collect
res32: Array[org.apache.spark.sql.Row] = Array([0,aaa], [0,bbb], [0,ccc], [1,ddd], [1,eee], [1,fff], [1,ggg])