迭代pyspark数据帧列

时间:2017-02-17 21:47:32

标签: python iterator pyspark pyspark-sql

我有以下pyspark.dataframe

age  state  name    income
21    DC    john    30-50K
NaN   VA    gerry   20-30K

我试图达到相当于df.isnull().sum()(来自熊猫)的产生:

age      1
state    0
name     0
income   0

起初我尝试了以下几点:

null_counter = [df[c].isNotNull().count() for c in df.columns]

但这会产生以下错误:

TypeError: Column is not iterable

同样,这就是我目前正在迭代列以获得最小值的方式:

class BaseAnalyzer:
    def __init__(self, report, struct):
        self.report = report
        self._struct = struct
        self.name = struct.name
        self.data_type = struct.dataType
        self.min = None
        self.max = None

    def __repr__(self):
        return '<Column: %s>' % self.name


class BaseReport:
    def __init__(self, df):
        self.df = df
        self.columns_list = df.columns
        self.columns = {f.name: BaseAnalyzer(self, f) for f in df.schema.fields}

    def calculate_stats(self):
        find_min = self.df.select([fn.min(self.df[c]).alias(c) for c in self.df.columns]).collect()
        min_row = find_min[0]
        for column, min_value in min_row.asDict().items():
            self[column].min = min_value

    def __getitem__(self, name):
        return self.columns[name]

    def __repr__(self):
        return '<Report>'

report = BaseReport(df)
calc = report.calculate_stats()

for column in report1.columns.values():
if hasattr(column, 'min'):
    print("{}:{}".format(column, column.min))

允许我对列进行迭代&#39;

<Column: age>:1
<Column: name>: Alan
<Column: state>:ALASKA
<Column: income>:0-1k

我认为这种方法已经变得复杂,如何正确迭代所有列以提供vaiour汇总统计(min,max,isnull,notnull等等)。pyspark.sql.Row和{{之间的区别1}}来自熊猫似乎很奇怪。

2 个答案:

答案 0 :(得分:4)

你有没有试过这样的事情:

names = df.schema.names
for name in names:
    print(name + ': ' + df.where(df[name].isNull()).count())

您可以看到如何修改此信息以将信息放入字典或其他更有用的格式。

答案 1 :(得分:-1)

您可以尝试以下一种方法:

nullDf= df.select([count(when(col(c).isNull(), c)).alias(c) for c in df.columns]) 
nullDf.show() 

它将为您提供列数为null的列列表。