`withFilter' org.apache.spark.rdd.RDD上尚不存在方法

时间:2016-04-14 13:34:08

标签: scala apache-spark

我正在使用SBT(scala版本2.10.4)构建spark项目:

  

sbt -Pyarn -Phadoop-2.4 -Dhadoop.version = 2.4.0 -Phive   -Phive-thriftserver -DskipTests清理包

然后我得到以下错误:

  

[错误]   /home/gracer/Desktop/test/mllib/src/main/scala/org/apache/spark/ml/recommendation/contextaware/CAMFCU.scala:1514:   withFilter' method does not yet exist on org.apache.spark.rdd.RDD[(Int, scala.collection.mutable.Map[Long,Float])], using滤波器'方法   而[错误]为((出价,错误)< - errorsTerms){

奇怪的是我以前能够编译和执行项目,但由于某种原因它现在出错了。

0 个答案:

没有答案