我正在处理几个数据表,这些数据表具有超过2000万行和30多个列。 目前,我正在使用python pyspark来计算Null值并计算丢失率。 但是一列检查需要40分钟。如果还有其他更好的处理方式可以使其更快,请通知我。赞赏。
我当前的代码是:
variables = ['A', 'B', ....]
for variable in variables:
column = pandas.read_sql_query('select %s from dbo.ORDERS' % (variable), con=cnxn)
column_missing = column.filter(column[variable].isnull()).count()
total = len(column)
missing = len(column_missing)
修改后的代码:
import pyodbc
import pandas
import numpy
import datetime
import time
from pyspark.sql.functions import lit, col
order_pk = pandas.read_sql_query('select %s from dbo.ORDERS' % ('ORDER_PK'), con=cnxn)
summary = order_pk.describe().filter(col('ORDER_PK') == "count")
summary.select(*((lit(rows)-col(c)).alias(c) for c in order_pk.columns)).show()
---------------------------------------------------------------------------
AttributeError Traceback (most recent call last)
<ipython-input-12-30285cf9f59e> in <module>()
----> 1 summary = order_pk.describe().filter(col('ORDER_PK') == "count")
2 summary.select(*((lit(rows)-col(c)).alias(c) for c in order_pk.columns)).show()
c:\users\pcui\appdata\local\programs\python\python37\lib\site-packages\pyspark\sql\functions.py in _(col)
40 def _(col):
41 sc = SparkContext._active_spark_context
---> 42 jc = getattr(sc._jvm.functions, name)(col._jc if isinstance(col, Column) else col)
43 return Column(jc)
44 _.__name__ = name
AttributeError: 'NoneType' object has no attribute '_jvm'
答案 0 :(得分:1)
由于您尝试以循环方式进行连接,因此需要花费大量时间。
from pyspark.sql.functions import lit
rows = df.count()
summary = df.describe().filter(col(variable) == "count")
summary.select(*((lit(rows)-col(c)).alias(c) for c in df.columns)).show()
您可以使用此column.isnull().sum()
来代替,因为它花费的时间很长。
编辑:请使用SQLAlchemy查询数据库以获取每个变量的计数。一次选择是个不错的选择。