我正在尝试使用Apache Spark和Java执行矩阵乘法。
我有两个主要问题:
答案 0 :(得分:40)
一切都取决于输入数据和维度,但一般来说,您想要的不是RDD
,而是来自org.apache.spark.mllib.linalg.distributed
的分布式数据结构之一。此时它提供了DistributedMatrix
IndexedRowMatrix
- 可以直接从RDD[IndexedRow]
创建,其中IndexedRow
由行索引和org.apache.spark.mllib.linalg.Vector
import org.apache.spark.mllib.linalg.{Vectors, Matrices}
import org.apache.spark.mllib.linalg.distributed.{IndexedRowMatrix,
IndexedRow}
val rows = sc.parallelize(Seq(
(0L, Array(1.0, 0.0, 0.0)),
(0L, Array(0.0, 1.0, 0.0)),
(0L, Array(0.0, 0.0, 1.0)))
).map{case (i, xs) => IndexedRow(i, Vectors.dense(xs))}
val indexedRowMatrix = new IndexedRowMatrix(rows)
RowMatrix
- 类似于IndexedRowMatrix
,但没有有意义的行索引。可以直接从RDD[org.apache.spark.mllib.linalg.Vector]
import org.apache.spark.mllib.linalg.distributed.RowMatrix
val rowMatrix = new RowMatrix(rows.map(_.vector))
BlockMatrix
- 可以从RDD[((Int, Int), Matrix)]
创建,其中元组的第一个元素包含块的坐标,第二个元素是本地org.apache.spark.mllib.linalg.Matrix
val eye = Matrices.sparse(
3, 3, Array(0, 1, 2, 3), Array(0, 1, 2), Array(1, 1, 1))
val blocks = sc.parallelize(Seq(
((0, 0), eye), ((1, 1), eye), ((2, 2), eye)))
val blockMatrix = new BlockMatrix(blocks, 3, 3, 9, 9)
CoordinateMatrix
- 可以从RDD[MatrixEntry]
创建,其中MatrixEntry
由行,列和值组成。
import org.apache.spark.mllib.linalg.distributed.{CoordinateMatrix,
MatrixEntry}
val entries = sc.parallelize(Seq(
(0, 0, 3.0), (2, 0, -5.0), (3, 2, 1.0),
(4, 1, 6.0), (6, 2, 2.0), (8, 1, 4.0))
).map{case (i, j, v) => MatrixEntry(i, j, v)}
val coordinateMatrix = new CoordinateMatrix(entries, 9, 3)
前两个实现支持乘本地Matrix
:
val localMatrix = Matrices.dense(3, 2, Array(1.0, 2.0, 3.0, 4.0, 5.0, 6.0))
indexedRowMatrix.multiply(localMatrix).rows.collect
// Array(IndexedRow(0,[1.0,4.0]), IndexedRow(0,[2.0,5.0]),
// IndexedRow(0,[3.0,6.0]))
并且第三个可以乘以另一个BlockMatrix
,只要该矩阵中每个块的列数与另一个矩阵的每个块的行数匹配即可。 CoordinateMatrix
不支持乘法,但很容易创建并转换为其他类型的分布式矩阵:
blockMatrix.multiply(coordinateMatrix.toBlockMatrix(3, 3))
每种类型都有自己的强弱侧,当您使用稀疏或密集元素(Vectors
或块Matrices
)时,还需要考虑一些其他因素。乘以局部矩阵通常是优选的,因为它不需要昂贵的改组。
您可以在the MLlib Data Types guide中找到有关每种类型的更多详细信息。