标签: sql apache-spark apache-spark-sql
spark-sql中是否有一种方法可以在数据框中添加新列,例如:
基本上,这与concat函数是相同的,不同之处在于串联返回的是字符串列表,而不是由标识符分隔的大字符串。
concat
NB:我正在使用python API
答案 0 :(得分:1)
您可以使用内置的df .withColumn("col_arr",array(df.columns.map(c => col(c)):_*)) 函数。在scala中,它看起来像:
df .withColumn("col_arr",array(df.columns.map(c => col(c)):_*))
{{1}}