有没有办法在pyspark中获取列数据类型?

时间:2018-08-01 23:12:24

标签: apache-spark pyspark

已经讨论了在pyspark中查找列数据类型的方法是使用df.dtypes get datatype of column using pyspark。问题在于,对于像数组或结构这样的数据类型,您会得到类似array<string>array<integer>的东西。

问题:是否有获取pyspark数据类型的本地方法?像ArrayType(StringType,true)

1 个答案:

答案 0 :(得分:5)

只需使用schema

df.schema[column_name].dataType