如何配对RDD-pyspark

时间:2018-06-26 08:48:06

标签: apache-spark pyspark

使用RDD生成配对,例如:

rdd1 = sc.parallelize(['d', '112', 'b', 'c', 'i', 'a', 'e'])

输出:

[('d','112'), ('d','b'), ('d','c'), ('d','i'), ..., ('a','e')]

谢谢

0 个答案:

没有答案