两个RDD的笛卡尔积和Cartesion的总和导致Spark(scala)?

时间:2017-11-02 13:35:55

标签: arrays scala apache-spark spark-dataframe scala-collections

我有两个RDDS(Spark scala),如下:

rdd1是Array((1,Array(1,2,3)),(2,Array(1,2,4)))

rdd2是Array((1,Array(4,5,6)),(2,Array(3,5,6)))

首先我必须产生笛卡尔和上述两个RDD的数组值的总和。

例如笛卡尔式如下:

((11,(Array(1,2,3),Array(4,5,6))),(12,(Array(1,2,3),Array(3,5,6))),(21,(Array(1,2,4),Array(4,5,6))),(22,(Array(1,2,4),Array(3,5,6))))

笛卡尔和总和如下:

Array((11,1*4+2*5+3*6) ,(12,1*3+2*5+3*6),(21,(1*4+2*5+4*6))(22,(1*3+2*5+4*6))

我试过像下面的笛卡尔:

scala> val cart=rdd1.cartesian(rdd2)

但我的结果如下:

Array[((Int, Array[Double]), (Int, Array[Double]))] i.e. 

(((1,(Array(1,2,3))),(1,Array(4,5,6))),
  ((1,(Array(1,2,3))),(2,Array(3,5,6))),
  ((2,(Array(1,2,4))),(1,Array(4,5,6))),
  ((2,(Array(1,2,4))),(2,Array(3,5,6)))
  )

请帮我解决这个问题

Array((11,1*4+2*5+3*6) ,(12,1*3+2*5+3*6),(21,(1*4+2*5+4*6))(22,(1*3+2*5+4*6))

1 个答案:

答案 0 :(得分:1)

您只需要映射笛卡儿,收集密钥并计算两个数组的内积:

rdd1.cartesian(rdd2).map{ 
    case ((k1, v1), (k2, v2)) => (k1, k2) -> v1.zip(v2).map(x => x._1 * x._2).reduce(_ + _) 
}.collect

// res5: Array[((Int, Int), Int)] = Array(((1,1),32), ((1,2),31), ((2,1),38), ((2,2),37))