pyspark

时间:2016-07-13 18:57:51

标签: pyspark apache-spark-sql

我正在寻找一种在两个DataFrame的列中找到值差异的方法。例如:

from pyspark.sql import SQLContext

sc = SparkContext()
sql_context = SQLContext(sc)

df_a = sql_context.createDataFrame([("a", 3), ("b", 5), ("c", 7)], ["name", "id"])

df_b = sql_context.createDataFrame([("a", 3), ("b", 10), ("c", 13)], ["name", "id"])

DataFrame A:

+----+---+
|name| id|
+----+---+
|   a|  3|
|   b|  5|
|   c|  7|
+----+---+

DataFrame B:

+----+---+
|name| id|
+----+---+
|   a|  3|
|   b| 10|
|   c| 13|
+----+---+

我的目标是listid个列元素位于A但不在B中,例如:[5, 7]。我在考虑在id上加入,但我认为没有好办法。

朴素的解决方案可能是:

list_a = df_a.select("id").rdd.map(lambda x: x.asDict()["id"]).collect()
list_b = df_b.select("id").rdd.map(lambda x: x.asDict()["id"]).collect()

result = list(set(list_a).difference(list_b))

但是,有没有一个简单的解决方案可以通过DataFrame操作获得,除了最终的收集?

1 个答案:

答案 0 :(得分:12)

使用subtract功能

df_a.select('id').subtract(df_b.select('id')).collect()