我有两个我想加入的RDD,它们看起来像这样:
val rdd1:RDD[(T,U)]
val rdd2:RDD[((T,W), V)]
恰好是rdd1
的键值是唯一的,并且rdd2
的元组键值是唯一的。我想加入这两个数据集,以便得到以下rdd:
val rdd_joined:RDD[((T,W), (U,V))]
实现这一目标的最有效方法是什么?以下是我想到的一些想法。
选项1:
val m = rdd1.collectAsMap
val rdd_joined = rdd2.map({case ((t,w), u) => ((t,w), u, m.get(t))})
选项2:
val distinct_w = rdd2.map({case ((t,w), u) => w}).distinct
val rdd_joined = rdd1.cartesian(distinct_w).join(rdd2)
选项1将收集所有要掌握的数据,对吧?因此,如果rdd1很大(在我的情况下它相对较大,虽然比rdd2小一个数量级),这似乎不是一个好的选择。选项2做了一个丑陋的独特和笛卡尔的产品,这似乎也非常低效。我想到的另一种可能性(但尚未尝试过)是做选项1并广播地图,尽管以“智能”方式进行广播会更好,这样地图的按键位于同一位置。 rdd2
的密钥。
之前有没有人遇到过这种情况?我很乐意接受你的想法。
谢谢!
答案 0 :(得分:58)
一种选择是通过将rdd1
收集到驱动程序并将其广播给所有映射器来执行广播连接;正确完成后,这将让我们避免大型rdd2
RDD:
val rdd1 = sc.parallelize(Seq((1, "A"), (2, "B"), (3, "C")))
val rdd2 = sc.parallelize(Seq(((1, "Z"), 111), ((1, "ZZ"), 111), ((2, "Y"), 222), ((3, "X"), 333)))
val rdd1Broadcast = sc.broadcast(rdd1.collectAsMap())
val joined = rdd2.mapPartitions({ iter =>
val m = rdd1Broadcast.value
for {
((t, w), u) <- iter
if m.contains(t)
} yield ((t, w), (u, m.get(t).get))
}, preservesPartitioning = true)
preservesPartitioning = true
告诉Spark这个地图函数不会修改rdd2
的键;这将允许Spark避免为基于rdd2
密钥加入的任何后续操作重新分区(t, w)
。
这种广播可能效率低下,因为它涉及到司机的通信瓶颈。原则上,可以在不涉及驱动程序的情况下将一个RDD广播到另一个RDD;我有一个原型,我想概括并添加到Spark。
另一种选择是重新映射rdd2
的密钥并使用Spark join
方法;这将涉及rdd2
(可能rdd1
)的完全洗牌:
rdd1.join(rdd2.map {
case ((t, w), u) => (t, (w, u))
}).map {
case (t, (v, (w, u))) => ((t, w), (u, v))
}.collect()
在我的示例输入中,这两种方法都会产生相同的结果:
res1: Array[((Int, java.lang.String), (Int, java.lang.String))] = Array(((1,Z),(111,A)), ((1,ZZ),(111,A)), ((2,Y),(222,B)), ((3,X),(333,C)))
第三种选择是重组rdd2
,以便t
成为其关键,然后执行上述连接。
答案 1 :(得分:14)
另一种方法是创建自定义分区程序,然后使用zipPartitions加入RDD。
import org.apache.spark.HashPartitioner
class RDD2Partitioner(partitions: Int) extends HashPartitioner(partitions) {
override def getPartition(key: Any): Int = key match {
case k: Tuple2[Int, String] => super.getPartition(k._1)
case _ => super.getPartition(key)
}
}
val numSplits = 8
val rdd1 = sc.parallelize(Seq((1, "A"), (2, "B"), (3, "C"))).partitionBy(new HashPartitioner(numSplits))
val rdd2 = sc.parallelize(Seq(((1, "Z"), 111), ((1, "ZZ"), 111), ((1, "AA"), 123), ((2, "Y"), 222), ((3, "X"), 333))).partitionBy(new RDD2Partitioner(numSplits))
val result = rdd2.zipPartitions(rdd1)(
(iter2, iter1) => {
val m = iter1.toMap
for {
((t: Int, w), u) <- iter2
if m.contains(t)
} yield ((t, w), (u, m.get(t).get))
}
).partitionBy(new HashPartitioner(numSplits))
result.glom.collect