以所需格式获取数据

时间:2018-10-22 15:45:39

标签: python python-3.x pandas dataframe weighted-average

我对Python有点陌生,我有以下要求。

Value         Date  Ticket  Source  Result
0.939531371 3/1/2018    T1  Source1  1
0.951619897 3/1/2018    T2  Source1  1
0.952681914 3/1/2018    T3  Source1  0
0.957009407 3/1/2018    T4  Source2  1
0.962669466 3/1/2018    T5  Source2  0 
0.963068552 3/1/2018    T6  Source3  1
0.963480195 3/1/2018    T7  Source4  1
0.951296258 3/2/2018    T11 Source5  1
0.962434762 3/2/2018    T12 Source5  1
0.950224149 3/2/2018    T13 Source5  1
0.961191873 3/2/2018    T14 Source5  1
0.952584896 3/2/2018    T15 Source5  0
0.962093595 3/2/2018    T16 Source5  1
0.975999737 3/2/2018    T17 Source5  1

我要从此数据帧生成以下数据帧-

Date      Source1 Source2 Source3 Source4 Source5 Overall_Result
3/1/2018   0.93     0.95   0.96     0.96      0        0.7
3/2/2018     0        0      0        0      0.95      0.85

此处涉及的计算是加权平均值-

Source1- 对于给定的日期和给定的来源,我们需要获取票证总数。对于Source1,在给定日期(3/1/2018)有3条记录(门票)。这些票证的“值”列必须按升序排序。然后,基于票数,必须将最大权重赋予最小的“值”

0.945=(0.939531370722655*3) +(0.951619897215127*2)+(1*0.952681914218488)/3+2+1

“总结果”列是针对给定日期计算的

1的个数除以该日期的总票数 日期-2018年3月1日=> 1 + 1 + 0 + 1 + 0 + 1 + 1 + 0 + 1 + 1/10 = 0.66

我有大量的数据需要进行这些计算。 Source列值的数量也可以是巨大的。在修改的数据框中,我希望将其作为列。 一种方法是在函数中编写逻辑并在每条记录上调用。 欢迎任何建议或帮助。预先感谢。

2 个答案:

答案 0 :(得分:1)

您可以将pivot_table与自定义聚合功能一起使用以获取第一列。然后groupby添加“结果”列。

import numpy as np
import pandas as pd

df2 = df.sort_values('Value').pivot_table(
        index='Date', 
        columns='Source',
        values='Value',
        aggfunc = lambda x: (x*np.arange(len(x), 0, -1)).sum()/np.arange(len(x), 0, -1).cumsum()[-1]).fillna(0)

df2['Result'] = df.groupby('Date').Result.apply(lambda x: x.sum()/np.size(x))

输出:

Source     Source1   Source2   Source3  Source4   Source5    Result
Date                                                               
3/1/2018  0.945753  0.958896  0.963069  0.96348  0.000000  0.714286
3/2/2018  0.000000  0.000000  0.000000  0.00000  0.955507  0.857143

答案 1 :(得分:0)

您可能忘记了在加权平均值计算中使用方括号:

> 0.93=[(0.939531370722655*3) +(0.951619897215127*2)+(1*0.952681914218488)]/(3+2+1)

另外,请尝试在"Value"上使用带有自定义聚合函数的数据透视表:

def func(series) : 
  s = series.sort_values().reset_index(drop=True).reset_index()
  return s.apply(lambda x : (len(s) - x["index"]) * x["Value"] /sum(np.arange(1, len(s) + 1)), axis=1).sum()

上面的函数计算熊猫系列的加权平均值:

  • 首先对值进行排序,然后按排序顺序重置索引。
  • 然后您计算加权平均值。

此聚合函数如下所示:

df1 = df.pivot_table(index="Date", columns="Source", aggfunc={"values" : func})

哪个返回:

+----------+----------+----------+----------+---------+----------+
|          |  Value   |          |          |         |          |
+----------+----------+----------+----------+---------+----------+
| Source   | Source1  | Source2  | Source3  | Source4 | Source5  |
| Date     |          |          |          |         |          |
+----------+----------+----------+----------+---------+----------+
| 3/1/2018 | 0.945753 | 0.958896 | 0.963069 | 0.96348 | NaN      |
| 3/2/2018 | NaN      | NaN      | NaN      | NaN     | 0.955507 |
+----------+----------+----------+----------+---------+----------+

然后显示总体结果:

df2 = df.pivot_table(index="Date",  values="Result", aggfunc="mean")

返回

+----------+----------+
|          |  Result  |
+----------+----------+
| Date     |          |
| 3/1/2018 | 0.714286 |
| 3/2/2018 | 0.857143 |
+----------+----------+

最后,您可以连接两个dataFrame以获得所需的dataframe:

df1.columns = df1.columns.droplevel()
df2.columns = ["Overall_Result" ]
dfResult = pd.concat([df1, df2], axis=1)

+----------+----------------+----------+----------+----------+---------+----------+
|          | Overall_Result | Source1  | Source2  | Source3  | Source4 | Source5  |
+----------+----------------+----------+----------+----------+---------+----------+
| Date     |                |          |          |          |         |          |
| 3/1/2018 |       0.714286 | 0.945753 | 0.958896 | 0.963069 | 0.96348 | NaN      |
| 3/2/2018 |       0.857143 | NaN      | NaN      | NaN      | NaN     | 0.955507 |
+----------+----------------+----------+----------+----------+---------+----------+