如何按数组中的common元素进行分组?

时间:2017-05-11 12:43:29

标签: apache-spark apache-spark-sql

我试图找到spark中的解决方案,用数组中的公共元素对数据进行分组。

 key                            value
[k1,k2]                         v1
[k2]                            v2
[k3,k2]                         v3
[k4]                            v4

如果任何元素在key中匹配,我们必须为其分配相同的groupid。(Groupby common element)

结果:

key                             value  GroupID
[k1,k2]                           v1    G1
[k2]                              v2    G1
[k3,k2]                           v3    G1 
[k4]                              v4    G2

Spark Graphx已经提供了一些建议,但此时学习曲线将更多地用于实现单一功能。

1 个答案:

答案 0 :(得分:12)

包含graphframes(最新支持的Spark版本为2.1,但它也应该支持2.2,如果您使用较新版本,则必须使用2.3补丁构建自己的版本)替换XXX使用Spark版本和YYY使用Scala版本:

spark.jars.packages  graphframes:graphframes:0.5.0-sparkXXX-s_YYY

添加爆炸键:

import org.apache.spark.sql.functions._

val df = Seq(
   (Seq("k1", "k2"), "v1"), (Seq("k2"), "v2"),
   (Seq("k3", "k2"), "v3"), (Seq("k4"), "v4")
).toDF("key", "value")

val edges = df.select(
  explode($"key") as "src", $"value" as "dst")

转换为graphframe

import org.graphframes._

val gf = GraphFrame.fromEdges(edges)

设置检查点目录(如果未设置):

import org.apache.spark.sql.SparkSession

val path: String = ???
val spark: SparkSession = ???
spark.sparkContext.setCheckpointDir(path)

查找已连接的组件:

val components = GraphFrame.fromEdges(edges).connectedComponents.setAlgorithm("graphx").run

使用输入数据加入结果:

 val result = components.where($"id".startsWith("v")).toDF("value", "group").join(df, Seq("value"))

检查结果:

result.show

// +-----+------------+--------+
// |value|       group|     key|
// +-----+------------+--------+
// |   v3|489626271744|[k3, k2]|
// |   v2|489626271744|    [k2]|
// |   v4|532575944704|    [k4]|
// |   v1|489626271744|[k1, k2]|
// +-----+------------+--------+