这是来自here的后续问题。我正在尝试基于此implementation实现k-means。它效果很好,但是我想用groupByKey()
替换reduceByKey()
,但我不确定(我现在不担心性能)。以下是相关的缩小代码:
val data = sc.textFile("dense.txt").map(
t => (t.split("#")(0), parseVector(t.split("#")(1)))).cache()
val read_mean_centroids = sc.textFile("centroids.txt").map(
t => (t.split("#")(0), parseVector(t.split("#")(1))))
var centroids = read_mean_centroids.takeSample(false, K, 42).map(x => x._2)
do {
var closest = read_mean_centroids.map(p => (closestPoint(p._2, centroids), p._2))
var pointsGroup = closest.groupByKey() // <-- THE VICTIM :)
var newCentroids = pointsGroup.mapValues(ps => average(ps.toSeq)).collectAsMap()
..
请注意println(newCentroids)
会给出:
地图(23 - &gt;( - 6.269305E-4,-0.0011746404,-4.08004E-5),8 - &gt;( - 5.108732E-4,7.336348E-4,-3.707591E-4),17 - &gt;(-0.0016383086,-0.0016974678,1.45 ..
和println(closest)
:
MapPartitionsRDD [6]位于地图kmeans.scala:75
相关问题:Using reduceByKey in Apache Spark (Scala)。
def reduceByKey(func:(V,V)⇒V):RDD [(K,V)]
使用关联reduce函数合并每个键的值。
def reduceByKey(func:(V,V)⇒V,numPartitions:Int):RDD [(K,V)]
使用关联reduce函数合并每个键的值。
def reduceByKey(分区程序:分区程序,功能:(V,V)⇒V):RDD [(K,V)]
使用关联reduce函数合并每个键的值。
def groupByKey():RDD [(K,Iterable [V])]
将RDD中每个键的值分组为一个序列。
答案 0 :(得分:5)
你可以使用这样的aggregateByKey()
(比reduceByKey()
更自然一点)来计算newCentroids
:
val newCentroids = closest.aggregateByKey((Vector.zeros(dim), 0L))(
(agg, v) => (agg._1 += v, agg._2 + 1L),
(agg1, agg2) => (agg1._1 += agg2._1, agg1._2 + agg2._2)
).mapValues(agg => agg._1/agg._2).collectAsMap
为此,您需要计算数据的维度,即dim
,但您只需要执行一次。您可以使用类似val dim = data.first._2.length
的内容。