PySpark RDD转换

时间:2015-08-12 12:02:25

标签: mapreduce apache-spark pyspark

我有一个带浮动列表的RDD:

  

[1.0,3.0,4.0,2.0]

我希望像这样转换RDD:

  

[(1.0,3.0),(1.0,4.0),(1.0,2.0),(3.0,4.0),(3.0,2.0),(4.0,   2.0)]

感谢任何帮助。

1 个答案:

答案 0 :(得分:1)

您需要RDD.cartesian

  

返回此RDD的笛卡尔积和另一个,即所有元素对(a,b)的RDD,其中 a 位于中self b 位于其他

something()

请注意,这会返回两个方向的对。希望这对你来说不是问题。