你会如何将这个函数java代码转换为SparkContext上方的scala?

时间:2015-01-28 15:57:50

标签: scala apache-spark functional-java

好的,我的pointsList<GeoPoint>

以下代码是使用java 8功能API编写的。 它获取点,为每个点计算其匹配的簇,然后将它们分组为ClusterKey。最终我们最终得到Map<ClusterKey, List<GeoPoint>这就是:

points.
   parallelStream().unordered().
   collect(groupingByConcurrent(Functions::calcClusterKey))

1 个答案:

答案 0 :(得分:2)

sc.parallelize(points).groupBy(Functions.calcClusterKey).collect.toMap

对应关系是1:1。