标签: apache-spark pyspark pyspark-sql
我有一个包含struct struct,Integers和其他列的pyspark数据帧。我想动态选择struct column(不知道列名,可能存在多个列)。请有人在PySpark中帮我这个
答案 0 :(得分:1)
您可以使用列表解析检索struct列,然后将结果插入select()语句中:
struct
select()
cols = [i.name for i in df.schema.fields if "StructType" in str(i.dataType)] df.select(cols)