我正在使用SBT(scala版本2.10.4)构建spark项目:
sbt -Pyarn -Phadoop-2.4 -Dhadoop.version = 2.4.0 -Phive -Phive-thriftserver -DskipTests清理包
然后我得到以下错误:
[错误] /home/gracer/Desktop/test/mllib/src/main/scala/org/apache/spark/ml/recommendation/contextaware/CAMFCU.scala:1514:
withFilter' method does not yet exist on org.apache.spark.rdd.RDD[(Int, scala.collection.mutable.Map[Long,Float])], using
滤波器'方法 而[错误]为((出价,错误)< - errorsTerms){
奇怪的是我以前能够编译和执行项目,但由于某种原因它现在出错了。