迭代Spark RDD

时间:2015-06-29 12:10:03

标签: python vector apache-spark pyspark

从Spark DataFrame开始,为进一步的分析处理创建矢量矩阵。

feature_matrix_vectors = feature_matrix1.map(lambda x: Vectors.dense(x)).cache()
feature_matrix_vectors.first()

输出是一个向量数组。其中一些向量中有一个空值

>>> DenseVector([1.0, 31.0, 5.0, 1935.0, 24.0])
...
>>> DenseVector([1.0, 1231.0, 15.0, 2008.0, null])

从此开始我想遍历向量矩阵,如果向量包含null,则创建一个0(零)的LabeledPoint数组,否则为1。

def f(row):
    if row.contain(None):
       LabeledPoint(1.0,row)
    else:
       LabeledPoint(0.0,row)

我尝试使用

遍历矢量矩阵
feature_matrix_labeledPoint = (f(row) for row in feature_matrix_vectors) #   create a generator of row sums
next(feature_matrix_labeledPoint) # Run the iteration protocol

但这不起作用。

TypeError: 'PipelinedRDD' object is not iterable

任何帮助都会很棒

1 个答案:

答案 0 :(得分:8)

RDDs不是Python列表的替代品。您必须使用给定RDD上可用的操作或转换。您只需使用map

即可
from pyspark.mllib.linalg import DenseVector
from pyspark.mllib.regression import LabeledPoint


feature_matrix_vectors = sc.parallelize([
    DenseVector([1.0, 31.0, 5.0, 1935.0, 24.0]),
    DenseVector([1.0, 1231.0, 15.0, 2008.0, None])
])

(feature_matrix_vectors
    .map(lambda v: LabeledPoint(1.0 if None in v else 0.0, v))
    .collect())