具有ML spark和数据帧的隐式推荐

时间:2015-10-04 10:03:39

标签: pyspark recommendation-engine spark-dataframe apache-spark-ml

我正在尝试使用Spark和Dataframes的新ML库来构建具有隐式评级的推荐器。 我的代码

from pyspark import SparkContext
from pyspark.sql import SQLContext
from pyspark.sql import Row 

from pyspark.ml.recommendation import ALS

sc = SparkContext()
sqlContext = SQLContext(sc)

# create the dataframe (user x item)
df = sqlContext.createDataFrame(
    [(0, 0), (0, 1), (1, 1), (1, 2), (2, 1), (2, 2)],
    ["user", "item"])
als = ALS() \
    .setRank(10) \
    .setImplicitPrefs(True)
model = als.fit(df)
print "Rank %i " % model.rank

model.userFactors.orderBy("id").collect()
test = sqlContext.createDataFrame([(0, 2), (1, 0), (2, 0)], ["user", "item"])
predictions = sorted(model.transform(test).collect(), key=lambda r: r[0])
for p in predictions: print p

但是,我遇到了这个错误

  

pyspark.sql.utils.AnalysisException:无法解析给定输入列user,item的'rating';

所以,不确定如何定义数据框

2 个答案:

答案 0 :(得分:1)

您似乎正在尝试使用(用户,产品)元组,但您需要(用户,产品,评级)三元组。即使是隐含评级,您也需要评级。如果它们都相同,你可以使用像1.0这样的常量。

答案 1 :(得分:1)

我很困惑因为MLLIB API对隐式

有单独的API调用

http://spark.apache.org/docs/latest/mllib-collaborative-filtering.html

val alpha = 0.01
val lambda = 0.01
val model = ALS.trainImplicit(ratings, rank, numIterations, lambda, alpha)