我在PySpark(ML包)中训练了LogisticRegression模型,预测结果是PySpark DataFrame(cv_predictions
)(参见[1])。 probability
列(参见[2])是vector
类型(参见[3])。
[1]
type(cv_predictions_prod)
pyspark.sql.dataframe.DataFrame
[2]
cv_predictions_prod.select('probability').show(10, False)
+----------------------------------------+
|probability |
+----------------------------------------+
|[0.31559134817066054,0.6844086518293395]|
|[0.8937864350711228,0.10621356492887715]|
|[0.8615878905395029,0.1384121094604972] |
|[0.9594427633777901,0.04055723662220989]|
|[0.5391547673698157,0.46084523263018434]|
|[0.2820729747752462,0.7179270252247538] |
|[0.7730465873083118,0.22695341269168817]|
|[0.6346585276598942,0.3653414723401058] |
|[0.6346585276598942,0.3653414723401058] |
|[0.637279255218404,0.362720744781596] |
+----------------------------------------+
only showing top 10 rows
[3]
cv_predictions_prod.printSchema()
root
...
|-- rawPrediction: vector (nullable = true)
|-- probability: vector (nullable = true)
|-- prediction: double (nullable = true)
如何创建解析PySpark DataFrame的vector
,以便创建一个新列,只拉取每个probability
向量的第一个元素?
这个问题与此类似,但以下链接中的解决方案对我来说并不清楚:
How to access the values of denseVector in PySpark
How to access element of a VectorUDT column in a Spark DataFrame?
答案 0 :(得分:23)
更新:
似乎spark中存在一个错误,阻止您在select语句中访问密集向量中的各个元素。通常你应该能像访问一个numpy数组一样访问它们,但是当你试图运行以前发布的代码时,你可能会收到错误pyspark.sql.utils.AnalysisException: "Can't extract value from probability#12;"
因此,处理此问题以避免这种愚蠢错误的一种方法是使用udf。与其他问题类似,您可以通过以下方式定义udf:
from pyspark.sql.functions import udf
from pyspark.sql.types import FloatType
firstelement=udf(lambda v:float(v[0]),FloatType())
cv_predictions_prod.select(firstelement('probability')).show()
在幕后,这仍然像一个numpy数组一样访问DenseVector的元素,但它并没有像以前那样抛出相同的bug。
由于这会得到很多赞成,我想我应该通过这个答案的错误部分。
原始答案:
密集向量只是numpy数组的包装器。因此,您可以像访问numpy数组的元素一样访问元素。
有几种方法可以访问数据框中数组的各个元素。一种是在select语句中显式调用列cv_predictions_prod['probability']
。通过显式调用该列,您可以对该列执行操作,例如选择数组中的第一个元素。例如:
cv_predictions_prod.select(cv_predictions_prod['probability'][0]).show()
应该解决问题。