已经讨论了在pyspark中查找列数据类型的方法是使用df.dtypes get datatype of column using pyspark。问题在于,对于像数组或结构这样的数据类型,您会得到类似array<string>
或array<integer>
的东西。
问题:是否有获取pyspark数据类型的本地方法?像ArrayType(StringType,true)
答案 0 :(得分:5)
只需使用schema
:
df.schema[column_name].dataType