错误:未找到:值RANDOM

时间:2017-11-09 22:24:18

标签: scala apache-spark fuzzy-c-means

我正在尝试使用Scala

在Spark中运行模糊C均值算法

我正在关注以下链接:

https://github.com/acflorea/fuzzyCMeans

点击下方查看我收到的错误的屏幕截图

错误截图:
img

我使用过sbt然后使用spark-shell

此外,要解决此问题,

我试图在下面导入

import scala.util.Random
import java.util.Random
import util.Random

但我仍然得到与之前相同的错误(截图)

在这方面的任何帮助将不胜感激。谢谢!

+++++++++++++++++++++++++++++++++++++++++++++++ +++++++++

我已导入下面提到的包,

org.apache.spark.mllib.clustering.KMeans

但我仍然面临这个问题。请查看详细的屏幕截图:

Screenshot of my work

请帮助!谢谢!

PS:我使用的是Spark 1.6.0和Scala 2.10.5

2 个答案:

答案 0 :(得分:0)

两个常量(RANDOM和K_MEANS_PARALLEL)在org.apache.spark.mllib.clustering.KMeans中定义

小心,我没有自Spark1.6更新包,因此Scala 2.10:)

享受!

答案 1 :(得分:0)

在Scala中,

import org.apache.spark.sql.functions.rand

rand是spark sql中可用的函数。 导入此文件可以访问rand函数。