我在pyspark中有两个rdd
rdd1=sc.parallelize(['a','b'])
rdd2=sc.parallelize(['c','d'])
我想生成一个具有对的rdd,它们对每个rdd的一个元素得出结论。 [(a,c),(b,c),(a,d),(b,d)] 我尝试过
rdd3=rdd1.map(lambda x:x)+rdd2.map(lambda y:y)
失败
答案 0 :(得分:1)
您正在寻找笛卡尔积:
rdd1.cartesian(rdd2)