用reduceByKey()

时间:2016-02-14 04:13:00

标签: scala apache-spark machine-learning mapreduce distributed-computing

这是来自here的后续问题。我正在尝试基于此implementation实现k-means。它效果很好,但是我想用groupByKey()替换reduceByKey(),但我不确定(我现在不担心性能)。以下是相关的缩小代码:

val data = sc.textFile("dense.txt").map(
        t => (t.split("#")(0), parseVector(t.split("#")(1)))).cache()

val read_mean_centroids = sc.textFile("centroids.txt").map(
        t => (t.split("#")(0), parseVector(t.split("#")(1))))
var centroids = read_mean_centroids.takeSample(false, K, 42).map(x => x._2)
do {
    var closest = read_mean_centroids.map(p => (closestPoint(p._2, centroids), p._2))
    var pointsGroup = closest.groupByKey() // <-- THE VICTIM :)
    var newCentroids = pointsGroup.mapValues(ps => average(ps.toSeq)).collectAsMap()
    ..

请注意println(newCentroids)会给出:

  

地图(23 - &gt;( - 6.269305E-4,-0.0011746404,-4.08004E-5),8 - &gt;( - 5.108732E-4,7.336348E-4,-3.707591E-4),17 - &gt;(-0.0016383086,-0.0016974678,1.45 ..

println(closest)

  

MapPartitionsRDD [6]位于地图kmeans.scala:75

相关问题:Using reduceByKey in Apache Spark (Scala)

一些documentation

  

def reduceByKey(func:(V,V)⇒V):RDD [(K,V)]

使用关联reduce函数合并每个键的值。

  

def reduceByKey(func:(V,V)⇒V,numPartitions:Int):RDD [(K,V)]

使用关联reduce函数合并每个键的值。

  

def reduceByKey(分区程序:分区程序,功能:(V,V)⇒V):RDD [(K,V)]

使用关联reduce函数合并每个键的值。

  

def groupByKey():RDD [(K,Iterable [V])]

将RDD中每个键的值分组为一个序列。

1 个答案:

答案 0 :(得分:5)

你可以使用这样的aggregateByKey()(比reduceByKey()更自然一点)来计算newCentroids

val newCentroids = closest.aggregateByKey((Vector.zeros(dim), 0L))(
  (agg, v) => (agg._1 += v, agg._2 + 1L),
  (agg1, agg2) => (agg1._1 += agg2._1, agg1._2 + agg2._2)
).mapValues(agg => agg._1/agg._2).collectAsMap 

为此,您需要计算数据的维度,即dim,但您只需要执行一次。您可以使用类似val dim = data.first._2.length的内容。