Apache Flink中的Join输出

时间:2015-06-11 15:55:54

标签: scala apache-flink

在Apache Flink中,如果我在一个主键上连接两个数据集,我会得到一个元组2,其中包含每个数据集的相应数据集条目。

问题是,当将map()方法应用于输出的元组2数据集时,它看起来并不好看,特别是如果两个数据集的条目都具有大量功能。

在两个输入数据集中使用元组会得到一些像这样的代码:

var in1: DataSet[(Int, Int, Int, Int, Int)] = /* */
var in2: DataSet[(Int, Int, Int, Int)] = /* */

val out = in1.join(in2).where(0, 1, 2).equalTo(0, 1, 2)
  .map(join => (join._1._1, join._1._2, join._1._3,
                    join._1._4, join._1._5, join._2._4))

我不介意使用POJO或案例类,但我不知道这会如何使它更好。

问题1:是否有一种很好的方法可以使元组2变得柔和?例如。使用另一个运营商。

问题2:如何在同一个键上处理3个数据集的连接?这将使示例源更加混乱。

感谢您的帮助。

1 个答案:

答案 0 :(得分:6)

您可以直接在每对连接元素上应用连接函数,例如

val leftData: DataSet[(String, Int, Int)] = ...
val rightData: DataSet[(String, Int)] = ...
val joined: DataSet[(String, Int, Int)] = leftData
      .join(rightData).where(0).equalTo(0) { (l, r) => (l._1, l._2, l._3 + r._2) ) }

要回答第二个问题,Flink只处理二进制连接。但是,如果您提示函数的行为,Flink的优化器可以避免进行不必要的改组。 Forward Field annotations告诉优化器,连接函数未修改某些字段(例如连接键),并允许重用现有的分区和排序。