我试图找到spark中的解决方案,用数组中的公共元素对数据进行分组。
key value
[k1,k2] v1
[k2] v2
[k3,k2] v3
[k4] v4
如果任何元素在key中匹配,我们必须为其分配相同的groupid。(Groupby common element)
结果:
key value GroupID
[k1,k2] v1 G1
[k2] v2 G1
[k3,k2] v3 G1
[k4] v4 G2
Spark Graphx已经提供了一些建议,但此时学习曲线将更多地用于实现单一功能。
答案 0 :(得分:12)
包含graphframes
(最新支持的Spark版本为2.1,但它也应该支持2.2,如果您使用较新版本,则必须使用2.3补丁构建自己的版本)替换XXX
使用Spark版本和YYY
使用Scala版本:
spark.jars.packages graphframes:graphframes:0.5.0-sparkXXX-s_YYY
添加爆炸键:
import org.apache.spark.sql.functions._
val df = Seq(
(Seq("k1", "k2"), "v1"), (Seq("k2"), "v2"),
(Seq("k3", "k2"), "v3"), (Seq("k4"), "v4")
).toDF("key", "value")
val edges = df.select(
explode($"key") as "src", $"value" as "dst")
转换为graphframe
:
import org.graphframes._
val gf = GraphFrame.fromEdges(edges)
设置检查点目录(如果未设置):
import org.apache.spark.sql.SparkSession
val path: String = ???
val spark: SparkSession = ???
spark.sparkContext.setCheckpointDir(path)
查找已连接的组件:
val components = GraphFrame.fromEdges(edges).connectedComponents.setAlgorithm("graphx").run
使用输入数据加入结果:
val result = components.where($"id".startsWith("v")).toDF("value", "group").join(df, Seq("value"))
检查结果:
result.show
// +-----+------------+--------+
// |value| group| key|
// +-----+------------+--------+
// | v3|489626271744|[k3, k2]|
// | v2|489626271744| [k2]|
// | v4|532575944704| [k4]|
// | v1|489626271744|[k1, k2]|
// +-----+------------+--------+