我使用Spark和ALS协作过滤mllib构建推荐系统
我的代码段:
bestModel.get
.predict(toBePredictedBroadcasted.value)
evrything还可以,但是我需要更改完整性要求的代码,我从here中的scala doc中读到
我需要使用def recommendProducts
但是当我尝试使用我的代码时:
bestModel.get.recommendProductsForUsers(100)
编译时出错:
value recommendProductsForUsers is not a member of org.apache.spark.mllib.recommendation.MatrixFactorizationModel
[error] bestModel.get.recommendProductsForUsers(100)
也许有人可以帮助我
THX
注意:我使用Spark 1.5.0
我的导入:
import com.datastax.spark.connector._
import org.apache.spark.{SparkConf, SparkContext}
import org.apache.spark.SparkContext._
import java.io.File
import scala.io.Source
import org.apache.log4j.Logger
import org.apache.log4j.Level
import org.apache.spark.rdd._
import org.apache.spark.mllib.recommendation.{ALS, Rating, MatrixFactorizationModel}
import org.apache.spark.sql.SQLContext
import org.apache.spark.broadcast.Broadcast