如何在pyspark中的列表数据框架中创建元组的数据框?

时间:2016-08-05 06:45:44

标签: python apache-spark pyspark pyspark-sql

这是我的数据框:

my_df.show()

+----------+
|  features|
+----------+
| [0,'a']  |
| [1,'b']  |
| [0,'c']  |
| [1,'d']  |
| [2,'e']  |
| [0,'f']  |
+----------+

如何将其转换为元组的数据框(具有单列“特征”)?

1 个答案:

答案 0 :(得分:0)

尝试

my_df.map(lambda x: (x[0],x[1]))