在Spark中使用MLlib函数ALS时出错

时间:2016-10-28 08:09:07

标签: scala apache-spark apache-spark-mllib

我从这样的文件中读到了:

val ratingText = sc.textFile("/home/cloudera/rec_data/processed_data/ratings/000000_0")

使用以下函数来解析此数据:

def parseRating(str: String): Rating= {
      val fields = str.split(",")
      Rating(fields(0).toInt, fields(1).trim.toInt, fields(2).trim.toDouble)
}

创建了一个rdd,然后将其拆分为不同的RDD

val ratingsRDD = ratingText.map(x=>parseRating(x)).cache()

val splits = ratingsRDD.randomSplit(Array(0.8, 0.2), 0L)

val trainingRatingsRDD = splits(0).cache()

使用训练RDD创建模型如下:

val model = (new ALS().setRank(20).setIterations(10) .run(trainingRatingsRDD))

我在最后一个命令

中收到以下错误
16/10/28 01:03:44 WARN BLAS: Failed to load implementation from: com.github.fommil.netlib.NativeSystemBLAS
16/10/28 01:03:44 WARN BLAS: Failed to load implementation from: com.github.fommil.netlib.NativeRefBLAS
16/10/28 01:03:46 WARN LAPACK: Failed to load implementation from: com.github.fommil.netlib.NativeSystemLAPACK
16/10/28 01:03:46 WARN LAPACK: Failed to load implementation from: com.github.fommil.netlib.NativeRefLAPACK

编辑:T。Gaweda的建议有助于消除错误,但我仍然收到以下警告:

16/10/28 01:53:59 WARN Executor: 1 block locks were not released by TID = 60:
[rdd_420_0]
16/10/28 01:54:00 WARN Executor: 1 block locks were not released by TID = 61:
[rdd_421_0]

我认为这导致了一个空模型,因为下一步导致了以下错误:

val topRecsForUser = model.recommendProducts(4276736,3)

错误是:

java.util.NoSuchElementException: next on empty iterator at scala.collection.Iterator$$anon$2.next(Iterator.scala:39)

请帮忙!

1 个答案:

答案 0 :(得分:1)

这只是一个警告。 Spark使用BLAS执行计算。 BLAS具有本机实现和JVM实现,本机实现更优化/更快。但是,您必须单独安装本机库。

如果没有此配置,将显示警告消息,Spark将使用BLAS的JVM实现。结果应该相同,可能计算得相当慢。

Here你已经了解了什么是BLAS以及如何配置它,例如在Cent OS上应该只有:yum install openblas lapack