我已经阅读了类似的问题,但无法找到解决我特定问题的方法。
我有一个清单
l = [1, 2, 3]
和一个DataFrame
df = sc.parallelize([
['p1', 'a'],
['p2', 'b'],
['p3', 'c'],
]).toDF(('product', 'name'))
我想获得一个新的DataFrame,其中列表l
被添加为另一列,即
+-------+----+---------+
|product|name| new_col |
+-------+----+---------+
| p1| a| 1 |
| p2| b| 2 |
| p3| c| 3 |
+-------+----+---------+
使用JOIN的方法,我用
加入df sc.parallelize([[1], [2], [3]])
失败了。使用withColumn
的方法,如
new_df = df.withColumn('new_col', l)
失败,因为列表不是Column
对象。
答案 0 :(得分:1)
因此,通过阅读一些有趣的内容here,我确定您无法将随机/任意列附加到给定的DataFrame
对象。您想要的更多是zip
而不是join
。我环顾四周找到了this ticket,这让我觉得如果你有zip
而不是DataFrame
个对象,你就不能RDD
。
我能够解决您的问题的唯一方法是离开DataFrame
个对象的世界并返回RDD
个对象。我还需要为加入目的创建索引,这可能适用于您的用例,也可能不适用。
l = sc.parallelize([1, 2, 3])
index = sc.parallelize(range(0, l.count()))
z = index.zip(l)
rdd = sc.parallelize([['p1', 'a'], ['p2', 'b'], ['p3', 'c']])
rdd_index = index.zip(rdd)
# just in case!
assert(rdd.count() == l.count())
# perform an inner join on the index we generated above, then map it to look pretty.
new_rdd = rdd_index.join(z).map(lambda (x, y): [y[0][0], y[0][1], y[1]])
new_df = new_rdd.toDF(["product", 'name', 'new_col'])
当我运行new_df.show()
时,我得到:
+-------+----+-------+
|product|name|new_col|
+-------+----+-------+
| p1| a| 1|
| p2| b| 2|
| p3| c| 3|
+-------+----+-------+
旁白:我真的很惊讶这没有用。看起来像一个外部联接?
from pyspark.sql import Row
l = sc.parallelize([1, 2, 3])
new_row = Row("new_col_name")
l_as_df = l.map(new_row).toDF()
new_df = df.join(l_as_df)
当我运行new_df.show()
时,我得到:
+-------+----+------------+
|product|name|new_col_name|
+-------+----+------------+
| p1| a| 1|
| p1| a| 2|
| p1| a| 3|
| p2| b| 1|
| p3| c| 1|
| p2| b| 2|
| p2| b| 3|
| p3| c| 2|
| p3| c| 3|
+-------+----+------------+
答案 1 :(得分:0)
如果product
列是唯一的,请考虑以下方法:
原始数据框:
df = spark.sparkContext.parallelize([
['p1', 'a'],
['p2', 'b'],
['p3', 'c'],
]).toDF(('product', 'name'))
df.show()
+-------+----+
|product|name|
+-------+----+
| p1| a|
| p2| b|
| p3| c|
+-------+----+
新列(和新索引列):
lst = [1, 2, 3]
indx = ['p1','p2','p3']
从上面的列表中创建一个新的数据框(带有索引):
from pyspark.sql.types import *
myschema= StructType([ StructField("indx", StringType(), True),
StructField("newCol", IntegerType(), True)
])
df1=spark.createDataFrame(zip(indx,lst),schema = myschema)
df1.show()
+----+------+
|indx|newCol|
+----+------+
| p1| 1|
| p2| 2|
| p3| 3|
+----+------+
使用创建的索引将其连接到原始数据框:
dfnew = df.join(df1, df.product == df1.indx,how='left')\
.drop(df1.indx)\
.sort("product")
获得:
dfnew.show()
+-------+----+------+
|product|name|newCol|
+-------+----+------+
| p1| a| 1|
| p2| b| 2|
| p3| c| 3|
+-------+----+------+
答案 2 :(得分:0)
这可以通过RDD实现。
1将数据帧转换为索引的rdds:
df_rdd = df.rdd.zipWithIndex().map(lambda row: (row[1], (row[0][0], row[0][1])))
l_rdd = sc.parallelize(l).zipWithIndex().map(lambda row: (row[1], row[0]))
2在索引,放置索引和重新排列元素上加入两个RDD:
res_rdd = df_rdd.join(l_rdd).map(lambda row: [row[1][0][0], row[1][0][1], row[1][1]])
3将结果转换为数据框:
res_df = res_rdd.toDF(['product', 'name', 'new_col'])
res_df.show()
+-------+----+-------+
|product|name|new_col|
+-------+----+-------+
| p1| a| 1|
| p2| b| 2|
| p3| c| 3|
+-------+----+-------+