我的文件中有此类数据,我想使用Spark进行一些统计。
文件内容:
aaa|bbb|ccc
ddd|eee|fff|ggg
我需要为每行分配一个ID。我将它们读为rdd并使用zipWithIndex()
。
然后它们应该像:
(0, aaa|bbb|ccc)
(1, ddd|eee|fff|ggg)
我需要使每个与ID关联的字符串。我可以获得Array(Row)的RDD,但不能跳出数组。
我应该如何修改我的代码?
import org.apache.spark.sql.{Row, SparkSession}
val fileRDD = spark.sparkContext.textFile(filePath)
val fileWithIdRDD = fileRDD.zipWithIndex()
// make the line like this: (0, aaa), (0, bbb), (0, ccc)
// each line is a record of Array(Row)
fileWithIdRDD.map(x => {
val id = x._1
val str = x._2
val strArr = str.split("\\|")
val rowArr = strArr.map(y => {
Row(id, y)
})
rowArr
})
现在看起来像:
[(0, aaa), (0, bbb), (0, ccc)]
[(1, ddd), (1, eee), (1, fff), (1, ggg)]
但是最后我想要:
(0, aaa)
(0, bbb)
(0, ccc)
(1, ddd)
(1, eee)
(1, fff)
(1, ggg)
答案 0 :(得分:1)
您只需要展平RDD
yourRDD.flatMap(array => array)
考虑您的代码(内部地图以及id和str的分配中已修复一些错误)
fileWithIdRDD.map(x => {
val id = x._1
val str = x._2
val strArr = str.split("\\|")
val rowArr = strArr.map(y => {
Row(id, y)
})
rowArr
}).flatMap(array => array)
此处的简单示例:
输入
fileWithIdRDD.collect
res30: Array[(Int, String)] = Array((0,aaa|bbb|ccc), (1,ddd|eee|fff|ggg))
执行
scala> fileWithIdRDD.map(x => {
val id = x._1
val str = x._2
val strArr = str.split("\\|")
val rowArr = strArr.map(y => {
Row(id, y)
})
rowArr
}).flatMap(array => array)
res31: org.apache.spark.rdd.RDD[org.apache.spark.sql.Row] = MapPartitionsRDD[17] at flatMap at <console>:35
输出
scala> res31.collect
res32: Array[org.apache.spark.sql.Row] = Array([0,aaa], [0,bbb], [0,ccc], [1,ddd], [1,eee], [1,fff], [1,ggg])