查找每个客户的日期时间缺失值

时间:2019-02-07 00:09:33

标签: python python-3.x pandas date datetime

    CustID  UsageDate               EnergyConsumed
0   17111   2018-01-01 00:00:00     1.095
1   17111   2018-01-01 01:00:00     1.129
2   17111   2018-01-01 02:00:00     1.165
3   17111   2018-01-01 03:00:00     1.833
4   17111   2018-01-01 04:00:00     1.697
5   17111   2018-01-01 05:00:00     1.835
missing data point 1
6   17111   2018-01-01 07:00:00     1.835
7   17112   2018-01-01 00:00:00     1.095
8   17112   2018-01-01 01:00:00     1.129
missing data point 1
9   17112   2018-01-01 03:00:00     1.833
10  17112   2018-01-01 04:00:00     1.697
11  17112   2018-01-01 05:00:00     1.835

对于每个客户,我都有每小时的数据。但是,之间缺少一些数据点。我要检查“使用日期的最小值和最大值”,然后在该时间间隔(所有值均为每小时)中填写缺少的“使用日期”,EnergyConsumed为零。我以后可以使用填充或回填来解决此问题。

并非每个客户的最大使用日期是2018年1月31日23:00:00。因此,我们只想将产品系列扩展到每个客户的最长时间。

缺失点1替换为

17111        2018-01-01 06:00:00     0

缺少点2替换为

17112        2018-01-01 02:00:00     0

我的主要问题是如何找到每个客户的最小和最大日期,然后生成日期间隔。

我尝试按日期索引并重新采样,但是还没有帮助我找到解决方案。

此外,我想知道是否有一种方法可以直接找到上述模式中缺少值的customerID。我的数据很大,@ Vaishali提供的解决方案计算量很大。任何输入都会有帮助!

2 个答案:

答案 0 :(得分:2)

您可以按CUSTID对数据框进行分组,并创建具有所需日期范围的索引。现在使用该索引重新索引数据

df['UsageDate'] = pd.to_datetime(df['UsageDate'])

idx = df.groupby('CustID')['UsageDate'].apply(lambda x: pd.Series(index = pd.date_range(x.min(), x.max(), freq = 'H'))).index

df.set_index(['CustID', 'UsageDate']).reindex(idx).fillna(0).reset_index().rename(columns = {'level_1':'UsageDate'})

    CustID  UsageDate               EnergyConsumed
0   17111   2018-01-01 00:00:00     1.095
1   17111   2018-01-01 01:00:00     1.129
2   17111   2018-01-01 02:00:00     1.165
3   17111   2018-01-01 03:00:00     1.833
4   17111   2018-01-01 04:00:00     1.697
5   17111   2018-01-01 05:00:00     1.835
6   17111   2018-01-01 06:00:00     0.000
7   17111   2018-01-01 07:00:00     1.835
8   17112   2018-01-01 00:00:00     1.095
9   17112   2018-01-01 01:00:00     1.129
10  17112   2018-01-01 02:00:00     0.000
11  17112   2018-01-01 03:00:00     1.833
12  17112   2018-01-01 04:00:00     1.697
13  17112   2018-01-01 05:00:00     1.835

说明:由于“使用日期”必须是该CustID的最小和最大日期范围内的所有日期,因此我们按CustID对数据进行分组,并使用date_range创建一系列最小和最大日期。将日期设置为系列的索引而不是值。 groupby的结果将是一个多索引,其CUSTID为级别0,使用日期为级别1。我们现在使用此多索引来重新索引原始数据帧。它将使用索引匹配的值,其余部分分配NaN。最后使用fillna将NaN转换为0。

答案 1 :(得分:1)

首先创建DatetimeIndex,然后在apply中使用asfreq

df['UsageDate'] = pd.to_datetime(df['UsageDate'])

df = (df.set_index('UsageDate')
        .groupby('CustID')['EnergyConsumed']
        .apply(lambda x: x.asfreq('H'))
        .fillna(0)
        .reset_index()
       )
print (df)
    CustID           UsageDate  EnergyConsumed
0    17111 2018-01-01 00:00:00           1.095
1    17111 2018-01-01 01:00:00           1.129
2    17111 2018-01-01 02:00:00           1.165
3    17111 2018-01-01 03:00:00           1.833
4    17111 2018-01-01 04:00:00           1.697
5    17111 2018-01-01 05:00:00           1.835
6    17111 2018-01-01 06:00:00           0.000
7    17111 2018-01-01 07:00:00           1.835
8    17112 2018-01-01 00:00:00           1.095
9    17112 2018-01-01 01:00:00           1.129
10   17112 2018-01-01 02:00:00           0.000
11   17112 2018-01-01 03:00:00           1.833
12   17112 2018-01-01 04:00:00           1.697
13   17112 2018-01-01 05:00:00           1.835

也可以使用参数ffillbfill

df = (df.set_index('UsageDate')
        .groupby('CustID')['EnergyConsumed']
        .apply(lambda x: x.asfreq('H', method='ffill'))
        .reset_index()
       )
print (df)
    CustID           UsageDate  EnergyConsumed
0    17111 2018-01-01 00:00:00           1.095
1    17111 2018-01-01 01:00:00           1.129
2    17111 2018-01-01 02:00:00           1.165
3    17111 2018-01-01 03:00:00           1.833
4    17111 2018-01-01 04:00:00           1.697
5    17111 2018-01-01 05:00:00           1.835
6    17111 2018-01-01 06:00:00           1.835
7    17111 2018-01-01 07:00:00           1.835
8    17112 2018-01-01 00:00:00           1.095
9    17112 2018-01-01 01:00:00           1.129
10   17112 2018-01-01 02:00:00           1.129
11   17112 2018-01-01 03:00:00           1.833
12   17112 2018-01-01 04:00:00           1.697
13   17112 2018-01-01 05:00:00           1.835