我在python方面很有经验,但是对pyspark来说是全新的。我有包含大约5000万行的数据框,其中包含一些分类功能。对于每个功能,我都采用一键编码。这是代码的简化但具有代表性的示例。
从pyspark.ml.feature导入StringIndexer,OneHotEncoder 从pyspark.ml导入管道
df = sc.parallelize([
(1, 'grocery'),
(1, 'drinks'),
(1, 'bakery'),
(2, 'grocery'),
(3, 'bakery'),
(3, 'bakery'),
]).toDF(["id", "category"])
indexer = StringIndexer(inputCol='category', outputCol='categoryIndex')
encoder = OneHotEncoder(inputCol='categoryIndex', outputCol='categoryVec')
pipe = Pipeline(stages = [indexer, encoder])
newDF = pipe.fit(df).transform(df)
提供输出
+---+--------+-------------+-------------+
| id|category|categoryIndex| categoryVec|
+---+--------+-------------+-------------+
| 1| grocery| 1.0|(2,[1],[1.0])|
| 1| drinks| 2.0| (2,[],[])|
| 1| bakery| 0.0|(2,[0],[1.0])|
| 2| grocery| 1.0|(2,[1],[1.0])|
| 3| bakery| 0.0|(2,[0],[1.0])|
| 3| bakery| 0.0|(2,[0],[1.0])|
+---+--------+-------------+-------------+
我现在想对'id'进行分组,并用总和汇总'categoryVec'列,这样我就可以为每个id获得一行,并带有一个向量,该向量指示客户在哪个(可能是几个)购物类别中在熊猫中,这仅是将sum / mean应用于pd.get_dummies()
步骤中产生的每一列的情况,但在这里似乎并不那么简单。
然后我将输出传递给ML算法,因此我将需要能够在输出上使用VectorAssembler或类似的软件。
哦,我真的需要一个pyspark解决方案。
非常感谢您的帮助!
答案 0 :(得分:1)
您可以为此使用Counvectorizer。它将类别索引数组转换为编码向量。
from pyspark.ml.feature import CountVectorizer
from pyspark.ml import Pipeline
from pyspark.sql.window import Window
from pyspark.sql import functions as F
df = sc.parallelize([
(1, 'grocery'),
(1, 'drinks'),
(1, 'bakery'),
(2, 'grocery'),
(3, 'bakery'),
(3, 'bakery'),
]).toDF(["id", "category"]) \
.groupBy('id') \
.agg(F.collect_list('category').alias('categoryIndexes'))
cv = CountVectorizer(inputCol='categoryIndexes', outputCol='categoryVec')
transformed_df = cv.fit(df).transform(df)
transformed_df.show()
结果:
+---+--------------------+--------------------+
| id| categoryIndexes| categoryVec|
+---+--------------------+--------------------+
| 1|[grocery, drinks,...|(3,[0,1,2],[1.0,1...|
| 3| [bakery, bakery]| (3,[0],[2.0])|
| 2| [grocery]| (3,[1],[1.0])|
+---+--------------------+--------------------+