标签: python apache-spark pyspark pyspark-sql
这是我的数据框:
my_df.show() +----------+ | features| +----------+ | [0,'a'] | | [1,'b'] | | [0,'c'] | | [1,'d'] | | [2,'e'] | | [0,'f'] | +----------+
如何将其转换为元组的数据框(具有单列“特征”)?
答案 0 :(得分:0)
尝试
my_df.map(lambda x: (x[0],x[1]))