Spark ML KMeansModel.computeCost()-使用球面距离而不是平面?

时间:2018-09-13 23:01:56

标签: apache-spark machine-learning apache-spark-ml

来自Spark Scala 2.2 apidocs:

def computeCost(dataset: Dataset[_]): Double
Computes the sum of squared distances between the input points and their corresponding cluster centers.

我想使用Haversine方法或类似的方法来computeCost()来测量地球表面(纬度,长度)上的距离。我可以覆盖Spark ML中的行为,还是必须退回到Spark MLib RDD实现中?

0 个答案:

没有答案