我正在尝试使用Scala
在Spark中运行模糊C均值算法我正在关注以下链接:
https://github.com/acflorea/fuzzyCMeans
点击下方查看我收到的错误的屏幕截图
我使用过sbt然后使用spark-shell
此外,要解决此问题,
我试图在下面导入
import scala.util.Random
import java.util.Random
import util.Random
但我仍然得到与之前相同的错误(截图)
在这方面的任何帮助将不胜感激。谢谢!
+++++++++++++++++++++++++++++++++++++++++++++++ +++++++++
我已导入下面提到的包,
org.apache.spark.mllib.clustering.KMeans
但我仍然面临这个问题。请查看详细的屏幕截图:
请帮助!谢谢!
PS:我使用的是Spark 1.6.0和Scala 2.10.5
答案 0 :(得分:0)
两个常量(RANDOM和K_MEANS_PARALLEL)在org.apache.spark.mllib.clustering.KMeans
中定义
小心,我没有自Spark1.6更新包,因此Scala 2.10:)
享受!
答案 1 :(得分:0)
在Scala中,
import org.apache.spark.sql.functions.rand
rand是spark sql中可用的函数。 导入此文件可以访问rand函数。