我是Scala和Spark的新手。我试图在地图转换期间返回多个键值对。我的输入数据是一个简单的CSV文件。
1, 2, 3 4, 5, 6 7, 8, 9
我的Scala脚本如下所示。
class Key(_i:Integer, _j:Integer) {
def i = _i
def j = _j
}
class Val(_x:Double, _y:Double) {
def x = _x
def y = _y
}
val arr = "1,2,3".split(",")
for(i <- 0 until arr.length) {
val x = arr(i).toDouble
for(j <- 0 until arr.length) {
val y = arr(j).toDouble
val k = new Key(i, j)
val v = new Val(x, y)
//note that i want to return the tuples, (k, v)
}
}
我希望能够使用上面的for循环和数据结构来返回多个元组(k,v)。类似于下面的代码。
val file = sc.textFile("/path/to/test.csv")
file.map(line => {
val arr = line.split(",")
for(i <- 0 until arr.length) {
val x = arr(i).toDouble
for(j <- (i+1) until arr.length) {
val y = arr(j).toDouble
val k = new Index(i,j)
val v = new Val(x,y)
(k,v)
}
}
}).collect //reduceByKey is not there, reduce is there, but not what i want
当我将上面的代码复制/粘贴到lambda表达式中(并在Scala REPL shell上运行)时,我收到以下错误:
error: illegal start of simple expression val arr = line.split(",") ^
我也意识到我仍然处于命令式/程序式编程思维中,所以请耐心等待(以及Scala / Spark的新手)。
答案 0 :(得分:4)
使用RDD.flatMap
和yield
来自for
循环的列表:
val file = sc.textFile("/path/to/test.csv")
file.flatMap { line =>
val arr = line.split(",")
for {
i <- 0 until arr.length
j <- (i + 1) until arr.length
} yield {
val x = arr(i).toDouble
val y = arr(j).toDouble
val k = new Index(i, j)
val v = new Val(x, y)
(k, v)
}
}.collect
答案 1 :(得分:3)
您忘记了箭头后的方括号。如果它是一个简单的表达式(一个表达式),则只能省略它们。
file.map(line => {
//multiple lines of code here
})
修改后的完整答案:
case class Index(i:Integer, j:Integer)
case class Val(x:Double, y:Double)
val data = sc.parallelize(List("1,2,3", "4,5,6", "7,8,9"))
data.flatMap(line=>{
val arr = line.split(",")
val doubleSeq = for(i <- 0 until arr.length) yield {
val x = arr(i).toDouble
for(j <- (i+1) until arr.length) yield {
val y = arr(j).toDouble
val k = Index(i,j)
val v = Val(x,y)
(k,v)
}
}
doubleSeq.flatten
})
实际上存在很多问题:
Serializable
map
更改为flatMap
,并flatten
将您的数组更改为flatMap
仍会留下内部数组。现在,两者的组合将产生RDD[(Index, Val)]
,现在可以隐含地与reduceByKey
一起使用for
将您的for
循环转换为yield
理解。您得到的最终类型为Unit
,因为for
循环的返回类型为Unit