如何加入两个数据帧?

时间:2016-01-28 04:12:56

标签: scala apache-spark apache-spark-sql

我无法让Sparks DataFrame联接起作用(没有产生结果)。这是我的代码:

val e = Seq((1, 2), (1, 3), (2, 4))
var edges = e.map(p => Edge(p._1, p._2)).toDF()
var filtered = edges.filter("start = 1").distinct()
println("filtered")
filtered.show()
filtered.printSchema()
println("edges")
edges.show()
edges.printSchema()
var joined = filtered.join(edges, filtered("end") === edges("start"))//.select(filtered("start"), edges("end"))
println("joined")
joined.show()

需要在顶层定义case class Edge(start: Int, end: Int)。这是它产生的输出:

filtered
+-----+---+
|start|end|
+-----+---+
|    1|  2|
|    1|  3|
+-----+---+

root
 |-- start: integer (nullable = false)
 |-- end: integer (nullable = false)

edges
+-----+---+
|start|end|
+-----+---+
|    1|  2|
|    1|  3|
|    2|  4|
+-----+---+

root
 |-- start: integer (nullable = false)
 |-- end: integer (nullable = false)

joined
+-----+---+-----+---+
|start|end|start|end|
+-----+---+-----+---+
+-----+---+-----+---+

我不明白为什么输出是空的。为什么filtered的第一行不与edges的最后一行结合?

1 个答案:

答案 0 :(得分:1)

val f2 = filtered.withColumnRenamed("start", "fStart").withColumnRenamed("end", "fEnd")
f2.join(edges, f2("fEnd") === edges("start")).show

我认为这是因为filtered("start").equals(edges("start")),即filtered是边缘上的过滤视图,它们共享列定义。列是相同的,因此Spark无法理解您正在引用的内容。

因此你可以做像

这样的事情
edges.select(filtered("start")).show