我想从Spark CholeskyDecomposition导入。
我是以下一个方式做的。首先,我修改了我的sbt文件并添加了额外的依赖项:
"org.apache.spark"%%"spark-mllib"%"1.3.0"
然后我导入我的Scala代码:
import org.apache.spark.mllib.linalg.CholeskyDecomposition
当我执行我的代码时(通过build.sbt),我收到了下一条错误消息:
对象CholeskyDecomposition不是包的成员 org.apache.spark.mllib.linalg
当我将import语句修改为:
时import org.apache.spark.mllib.linalg
一切顺利,代码执行时没有错误消息(当然没有CholeskyDecomposition对象)。 无论如何,我很确定对象CholeskyDecomposition是mllib Spark的linalg包的成员。 我也只是复制import语句而无法进行语法错误。
答案 0 :(得分:2)
它现在是org.apache.spark.mllib.linalg
的成员,但它不在spark-mllib
1.3中。
我甚至不确定它何时推出,但我相信自1.6.0-SNAPSHOT
scope :search, -> query { joins(:categories).where("lower(title) LIKE ? OR lower(author) LIKE ? OR lower(publisher) LIKE ? OR lower(publication_year) LIKE ? OR lower(country_of_origin) LIKE ? OR lower(description) LIKE ? OR lower (categories.name) LIKE ?",
"%#{query}%".downcase, "%#{query}%".downcase, "%#{query}%".downcase, "%#{query}%".downcase, "%#{query}%".downcase, "%#{query}%".downcase, "%#{query}%".downcase) }
以来我已经添加了commits。 (commit hash:7bf07faa716bd6a01252c5e888d0956096bde026)