我使用了以下代码:
df.withColumn("dense_vector", $"sparse_vector".toDense)
但它会出错。
我是Spark新手,所以这可能很明显,我的代码行可能会出现明显的错误。请帮忙。谢谢!
答案 0 :(得分:4)
需要像这样的操作的上下文在Spark中相对较少。有一两个例外,Spark API期望常见的Vector
类不是特定的实现(SparseVector
,DenseVector
)。对于来自o.a.s.mllib.linalg.distributed
import org.apache.spark.mllib.linalg.{Vector, Vectors}
import org.apache.spark.mllib.linalg.distributed.RowMatrix
val df = Seq[(Long, Vector)](
(1L, Vectors.dense(1, 2, 3)), (2L, Vectors.sparse(3, Array(1), Array(3)))
).toDF("id", "v")
new RowMatrix(df.select("v")
.map(_.getAs[Vector]("v")))
.columnSimilarities(0.9)
.entries
.first
// apache.spark.mllib.linalg.distributed.MatrixEntry = MatrixEntry(0,2,1.0)
然而你可以使用这样的UDF:
val asDense = udf((v: Vector) => v.toDense)
df.withColumn("vd", asDense($"v")).show
// +---+-------------+-------------+
// | id| v| vd|
// +---+-------------+-------------+
// | 1|[1.0,2.0,3.0]|[1.0,2.0,3.0]|
// | 2|(3,[1],[3.0])|[0.0,3.0,0.0]|
// +---+-------------+-------------+
请记住,自2.0版开始,Spark提供了两种不同且兼容的Vector
类型:
o.a.s.ml.linalg.Vector
o.a.s.mllib.linalg.Vector
每个都有相应的SQL UDT。见MatchError while accessing vector column in Spark 2.0