在Python Pandas中,检查DataFrame是否有一个(或多个)NaN值的最佳方法是什么?
我知道函数pd.isnan
,但这会为每个元素返回一个布尔数据框架。 This post就在这里也没有完全回答我的问题。
答案 0 :(得分:443)
jwilner的反应很明显。我正在探索是否有更快的选择,因为根据我的经验,求平面阵列(奇怪地)比计数更快。这段代码似乎更快:
df.isnull().values.any()
例如:
In [2]: df = pd.DataFrame(np.random.randn(1000,1000))
In [3]: df[df > 0.9] = pd.np.nan
In [4]: %timeit df.isnull().any().any()
100 loops, best of 3: 14.7 ms per loop
In [5]: %timeit df.isnull().values.sum()
100 loops, best of 3: 2.15 ms per loop
In [6]: %timeit df.isnull().sum().sum()
100 loops, best of 3: 18 ms per loop
In [7]: %timeit df.isnull().values.any()
1000 loops, best of 3: 948 µs per loop
df.isnull().sum().sum()
有点慢,但当然还有其他信息 - NaNs
的数量。
答案 1 :(得分:135)
你有几个选择。
import pandas as pd
import numpy as np
df = pd.DataFrame(np.random.randn(10,6))
# Make a few areas have NaN values
df.iloc[1:3,1] = np.nan
df.iloc[5,3] = np.nan
df.iloc[7:9,5] = np.nan
现在数据框看起来像这样:
0 1 2 3 4 5
0 0.520113 0.884000 1.260966 -0.236597 0.312972 -0.196281
1 -0.837552 NaN 0.143017 0.862355 0.346550 0.842952
2 -0.452595 NaN -0.420790 0.456215 1.203459 0.527425
3 0.317503 -0.917042 1.780938 -1.584102 0.432745 0.389797
4 -0.722852 1.704820 -0.113821 -1.466458 0.083002 0.011722
5 -0.622851 -0.251935 -1.498837 NaN 1.098323 0.273814
6 0.329585 0.075312 -0.690209 -3.807924 0.489317 -0.841368
7 -1.123433 -1.187496 1.868894 -2.046456 -0.949718 NaN
8 1.133880 -0.110447 0.050385 -1.158387 0.188222 NaN
9 -0.513741 1.196259 0.704537 0.982395 -0.585040 -1.693810
df.isnull().any().any()
- 返回布尔值您知道isnull()
将返回如下数据框:
0 1 2 3 4 5
0 False False False False False False
1 False True False False False False
2 False True False False False False
3 False False False False False False
4 False False False False False False
5 False False False True False False
6 False False False False False False
7 False False False False False True
8 False False False False False True
9 False False False False False False
如果您使用df.isnull().any()
,则只能找到包含NaN
值的列:
0 False
1 True
2 False
3 True
4 False
5 True
dtype: bool
另外一个.any()
会告诉您上述任何一项是True
> df.isnull().any().any()
True
df.isnull().sum().sum()
- 返回NaN
值总数的整数:这与.any().any()
的操作方式相同,首先给出一列中NaN
值的总和,然后是这些值的总和:
df.isnull().sum()
0 0
1 2
2 0
3 1
4 0
5 2
dtype: int64
最后,获取DataFrame中NaN值的总数:
df.isnull().sum().sum()
5
答案 2 :(得分:42)
要找出特定列中哪些行具有NaN:
SELECT name,
SUM(CASE WHEN YEAR(TransDate) = 2014
THEN COALESCE(credit, 0) - COALESCE(debit, 0)
ELSE 0
END) as credit_debit_2014,
SUM(CASE WHEN YEAR(TransDate) = 2015
THEN COALESCE(credit, 0) - COALESCE(debit, 0)
ELSE 0
END) as credit_debit_2015,
SUM(CASE WHEN YEAR(TransDate) = 2016
THEN COALESCE(credit, 0) - COALESCE(debit, 0)
ELSE 0
END) as credit_debit_2016
FROM table1
GROUP BY name;
答案 3 :(得分:36)
如果你需要知道有多少行"一个或多个NaN
s":
df.isnull().T.any().T.sum()
或者如果你需要拉出这些行并检查它们:
nan_rows = df[df.isnull().T.any().T]
答案 4 :(得分:30)
df.isnull().any().any()
应该这样做。
答案 5 :(得分:15)
添加到Hobs的精彩回答,我对Python和Pandas都很陌生,所以请指出我是不是错了。
找出哪些行有NaN:
nan_rows = df[df.isnull().any(1)]
将执行相同的操作而不需要通过将any()的轴指定为1进行转置来检查是否真的'存在于行中。
答案 6 :(得分:10)
由于没有人提到,只有另一个名为hasnans
的变量。
df[i].hasnans
将输出到True
,如果不是,则False
。recv
请注意,它不是一个功能。
pandas version'0.19.2'和'0.20.2'
答案 7 :(得分:7)
由于pandas
必须为DataFrame.dropna()
找到这个,我看了看他们是如何实现它的,并发现他们使用了DataFrame.count()
,它计算所有非空DataFrame
中的值。参看pandas source code。我没有对这种技术进行基准测试,但我认为图书馆的作者可能已经做出明智的选择。
答案 8 :(得分:5)
刚刚使用 math.isnan(x),如果x是NaN(不是数字),则返回True,否则返回False。
答案 9 :(得分:3)
df.isna().any(axis=None)
Starting from v0.23.2,您可以使用DataFrame.isna
+ DataFrame.any(axis=None)
,其中axis=None
指定整个DataFrame的逻辑归约。
# Setup
df = pd.DataFrame({'A': [1, 2, np.nan], 'B' : [np.nan, 4, 5]})
df
A B
0 1.0 NaN
1 2.0 4.0
2 NaN 5.0
df.isna()
A B
0 False True
1 False False
2 True False
df.isna().any(axis=None)
# True
numpy.isnan
如果您运行的是旧版熊猫,则是另一个性能选择。
np.isnan(df.values)
array([[False, True],
[False, False],
[ True, False]])
np.isnan(df.values).any()
# True
或者,检查总和:
np.isnan(df.values).sum()
# 2
np.isnan(df.values).sum() > 0
# True
Series.hasnans
您还可以迭代地调用Series.hasnans
。例如,要检查单个列是否具有NaN,
df['A'].hasnans
# True
要检查 any 列是否具有NaN,可以对any
使用理解(这是一种短路操作)。
any(df[c].hasnans for c in df)
# True
这实际上非常很快。
答案 10 :(得分:2)
这是找到空值并替换为计算值的另一种有趣方式
#Creating the DataFrame
testdf = pd.DataFrame({'Tenure':[1,2,3,4,5],'Monthly':[10,20,30,40,50],'Yearly':[10,40,np.nan,np.nan,250]})
>>> testdf2
Monthly Tenure Yearly
0 10 1 10.0
1 20 2 40.0
2 30 3 NaN
3 40 4 NaN
4 50 5 250.0
#Identifying the rows with empty columns
nan_rows = testdf2[testdf2['Yearly'].isnull()]
>>> nan_rows
Monthly Tenure Yearly
2 30 3 NaN
3 40 4 NaN
#Getting the rows# into a list
>>> index = list(nan_rows.index)
>>> index
[2, 3]
# Replacing null values with calculated value
>>> for i in index:
testdf2['Yearly'][i] = testdf2['Monthly'][i] * testdf2['Tenure'][i]
>>> testdf2
Monthly Tenure Yearly
0 10 1 10.0
1 20 2 40.0
2 30 3 90.0
3 40 4 160.0
4 50 5 250.0
答案 11 :(得分:2)
通过使用seaborn模块heatmap生成热图,我们可以看到数据集中存在的空值
import pandas as pd
import seaborn as sns
dataset=pd.read_csv('train.csv')
sns.heatmap(dataset.isnull(),cbar=False)
答案 12 :(得分:2)
我一直在使用以下内容,并将其强制转换为字符串并检查nan值
(str(df.at[index, 'column']) == 'nan')
这使我可以检查序列中的特定值,而不仅仅是返回该值是否包含在序列中。
答案 13 :(得分:1)
df.apply(axis=0, func=lambda x : any(pd.isnull(x)))
将检查每一列是否包含Nan。
答案 14 :(得分:1)
或者您可以在.info()
上使用DF
,例如:
df.info(null_counts=True)
会返回列中的非空行数,例如:
<class 'pandas.core.frame.DataFrame'>
Int64Index: 3276314 entries, 0 to 3276313
Data columns (total 10 columns):
n_matches 3276314 non-null int64
avg_pic_distance 3276314 non-null float64
答案 15 :(得分:1)
答案 16 :(得分:1)
答案 17 :(得分:0)
df.isnull()。sum() 这将为您提供DataFrame中所有NaN值的计数
答案 18 :(得分:0)
让df
为Pandas DataFrame的名称,而numpy.nan
的任何值均为空值。
df.isnull().any()
df.loc[:, df.isnull().any()].columns
df.loc[:, list(df.loc[:, df.isnull().any()].columns)].isnull().sum()
df.loc[:, list(df.loc[:, df.isnull().any()].columns)].isnull().sum()/(len(air_price))*100
编辑1:
如果要直观地查看数据丢失的地方:
import missingno
missingdata_df = df.columns[df.isnull().any()].tolist()
missingno.matrix(df[missingdata_df])
答案 19 :(得分:0)
为此,我们可以使用语句 df.isna().any()
。这将检查我们所有的列并返回 True
如果有任何缺失值或 NaN
或 False
如果没有缺失值。
答案 20 :(得分:-1)
您不仅可以检查是否存在“ NaN”,还可以使用以下命令获取每一列中“ NaN”的百分比,
dplyr
答案 21 :(得分:-1)
根据您要处理的数据类型,您还可以通过将dropna设置为False来获取执行EDA时每列的值计数。
for col in df:
print df[col].value_counts(dropna=False)
适用于分类变量,而不是在有许多唯一值时。